모바일 오유 바로가기
http://m.todayhumor.co.kr
분류 게시판
베스트
  • 베스트오브베스트
  • 베스트
  • 오늘의베스트
  • 유머
  • 유머자료
  • 유머글
  • 이야기
  • 자유
  • 고민
  • 연애
  • 결혼생활
  • 좋은글
  • 자랑
  • 공포
  • 멘붕
  • 사이다
  • 군대
  • 밀리터리
  • 미스터리
  • 술한잔
  • 오늘있잖아요
  • 투표인증
  • 새해
  • 이슈
  • 시사
  • 시사아카이브
  • 사회면
  • 사건사고
  • 생활
  • 패션
  • 패션착샷
  • 아동패션착샷
  • 뷰티
  • 인테리어
  • DIY
  • 요리
  • 커피&차
  • 육아
  • 법률
  • 동물
  • 지식
  • 취업정보
  • 식물
  • 다이어트
  • 의료
  • 영어
  • 맛집
  • 추천사이트
  • 해외직구
  • 취미
  • 사진
  • 사진강좌
  • 카메라
  • 만화
  • 애니메이션
  • 포니
  • 자전거
  • 자동차
  • 여행
  • 바이크
  • 민물낚시
  • 바다낚시
  • 장난감
  • 그림판
  • 학술
  • 경제
  • 역사
  • 예술
  • 과학
  • 철학
  • 심리학
  • 방송연예
  • 연예
  • 음악
  • 음악찾기
  • 악기
  • 음향기기
  • 영화
  • 다큐멘터리
  • 국내드라마
  • 해외드라마
  • 예능
  • 팟케스트
  • 방송프로그램
  • 무한도전
  • 더지니어스
  • 개그콘서트
  • 런닝맨
  • 나가수
  • 디지털
  • 컴퓨터
  • 프로그래머
  • IT
  • 안티바이러스
  • 애플
  • 안드로이드
  • 스마트폰
  • 윈도우폰
  • 심비안
  • 스포츠
  • 스포츠
  • 축구
  • 야구
  • 농구
  • 바둑
  • 야구팀
  • 삼성
  • 두산
  • NC
  • 넥센
  • 한화
  • SK
  • 기아
  • 롯데
  • LG
  • KT
  • 메이저리그
  • 일본프로야구리그
  • 게임1
  • 플래시게임
  • 게임토론방
  • 엑스박스
  • 플레이스테이션
  • 닌텐도
  • 모바일게임
  • 게임2
  • 던전앤파이터
  • 마비노기
  • 마비노기영웅전
  • 하스스톤
  • 히어로즈오브더스톰
  • gta5
  • 디아블로
  • 디아블로2
  • 피파온라인2
  • 피파온라인3
  • 워크래프트
  • 월드오브워크래프트
  • 밀리언아서
  • 월드오브탱크
  • 블레이드앤소울
  • 검은사막
  • 스타크래프트
  • 스타크래프트2
  • 베틀필드3
  • 마인크래프트
  • 데이즈
  • 문명
  • 서든어택
  • 테라
  • 아이온
  • 심시티5
  • 프리스타일풋볼
  • 스페셜포스
  • 사이퍼즈
  • 도타2
  • 메이플스토리1
  • 메이플스토리2
  • 오버워치
  • 오버워치그룹모집
  • 포켓몬고
  • 파이널판타지14
  • 배틀그라운드
  • 기타
  • 종교
  • 단어장
  • 자료창고
  • 운영
  • 공지사항
  • 오유운영
  • 게시판신청
  • 보류
  • 임시게시판
  • 메르스
  • 세월호
  • 원전사고
  • 2016리오올림픽
  • 2018평창올림픽
  • 게시판찾기
  • 게시물ID : bestofbest_291543
    작성자 : 이기준 (가입일자:2013-08-13 방문횟수:401)
    추천 : 168
    조회수 : 20533
    IP : 124.61.***.196
    댓글 : 140개
    베오베 등록시간 : 2016/12/20 17:07:17
    원글작성시간 : 2016/12/20 14:18:04
    http://todayhumor.com/?bestofbest_291543 모바일
    딥러닝과 논리학 연구

    안녕하세요. 저는 이기준이라고 합니다. 저는 제 친동생 이기환님과 함께 소프트웨어 연구와 개발 사업을 하는데요. 최근 우리가 딥러닝 연구를 시작하게 되었습니다.


    우리는 프로그래밍을 잘하는 방법을 이렇게 생각하고 있습니다.

    1. 잘 쓰여진 코드를 읽고 분석한다.

      1. 내 입장에서 분석을 해보고 그 내용을 주석으로 단다.

    2. 분석한 코드를 다른 언어로 포팅해 본다.

      1. 이 과정에서 내가 분석한 것이 정확했는지, 내가 프로그램의 정보처리 과정을 제대로 이해했는지를 검증한다.

    3. 그렇게 배운 것을 바탕으로 해서 내가 원하는 소프트웨어의 목표를 기획하고 그 목표를 달성할 수 있는 정보처리 과정을 코드로 구현한다.


    우리는 이것을 "프로그래밍의 왕도(王道)"라고 부릅니다. 우리는 이 방법을 이용해서 그동안 프로그래밍 실력을 꾸준하게 닦았습니다. 이번에 딥러닝을 연구할 때에도 같은 방법으로 접근해서 연구하고 있습니다.


    우리는 2016년 11월 초부터 싱글 퍼셉트론, 다중 퍼셉트론 구현 코드를 분석하고 주석을 다는 일을 시작했습니다.

    퍼셉트론은 인공신경망의 기본 단위입니다. 우리가 분석한 소스는 C++로 쓰여진 것이었습니다.


    우리는 2주 정도 분석하고 주석을 다는 기간을 가졌고 그 후로는 포팅을 했습니다. 우리가 포팅 대상으로 선택한 언어는 “줄리아 Julia”였습니다. 우리는 Golang과 줄리아 중에 무엇을 선택할지 토론하는 시간을 가져 보고 최종적으로 줄리아로 해보기로 선택했습니다. 그 이유는 줄리아가 좀 더 수학적인 표현을 하는데 유리하다고 판단했기 때문이었습니다.


    줄리아를 포팅 언어로 선택한 이유

    1. 비교적 최신 언어다.

    2. 퍼포먼스가 빠르다.

    3. 수학 계산을 하는데 편리하다.


    그렇게 작업을 시작해서 2016년 12월 둘째 주에 싱글 퍼셉트론과 다중 퍼센트론 코드를 줄리아로 포팅하는 것을 완료했습니다. 우리가 포팅하고 주석을 단 코드를 공유하겠습니다. 깃허브 링크에 C++ 원소스 링크도 있습니다.

    깃허브 링크



    우리가 프레임워크를 사용한 재현 실험으로 학습을 하지 않고 굳이 포팅을 했던 이유

    우리는 2016년 10월부터 몇 주 동안 텐서플로, 카페, 티아노, 케라스 등 프레임워크 툴과 소스를 사용해서 재현 실험을 했었습니다. 딥마인드 DQN 소스 재현도 했었구요. 그런데 그런 것을 해도 딥러닝에 대한 기본적인 원리를 이해하는데 이르지 못했습니다. 그래서 정공법을 택해서 기본 단위부터 분석하는 일을 했던 것입니다.


    우리가 분석한 소스의 주석과 포팅한 소스를 공유하는 이유는 우리와 비슷한 입장에서 딥러닝의 기본 원리를 탐구하고자 하는 사람들에게 도움이 되기를 원하기 때문입니다. 그리고 관심 있으신 분들이 리뷰를 하고 의견을 피드백 해주시기를 바랍니다. 우리가 발견하지 못한 실수나 보완할 점이 있으면 언제든지 얘기해 주세요.


    우리는 앞으로 CNN, RNN, DQN, NLP 기타 복합적인 강화학습 패키지를 포팅해서 구현하고 문서로 정리를 해볼 생각입니다. 관심 있으신 분들과 교류하기를 바랍니다.


    이 문서의 아래 부분에는 우리가 연구하면서 작성한 연구 일지의 일부를 첨부합니다.



    이기준 이기환의 연구일지

    우리는 이 작업을 하면서 벡터, 행렬, 미적분, 위상수학 등 생소했던 수학 분야를 배우면서 정리하는 작업을 같이 하게 되었습니다.  


    우리는 딥러닝과 인공지능을 연구하기 전부터 논리학과 수학을 연구하고 있었는데요. 그 주제에 "연역론"이라는 이름을 붙여서 연구하고 있었습니다. 이어질 내용에서 "연역론"이라는 단어가 나오면 "아, 이건 이기준 이기환님이 자기가 연구하던 주제에 이름을 붙인 것이구나."라고 생각하면 이해하기 편하실 것입니다.


    우리가 일지에서 서술한 내용은 절대적인 사실이 아니고 우리가 딥러닝을 연구하는데 도움이 되는 세계관을 구상하면서 만들어 낸 가설입니다. 그렇게 이해해 주시고 합리적인 의견이 있으신 분은 피드백을 해주십시오. 감사합니다.


    연역론이란 무엇인가?

    연역론은 생각을 하는 방법, 사고방식이다.


    연역론은 어떻게 이루어지는가? 연역론으로 생각하는 방법은 어떤 과정으로 이루어지는가?

    재래식 논리학에는 정보처리가 이루어지는 과정에 대해서 생각하는 방식으로 절대적인 관점, 상대적인 관점이 있다.

    관점, 세계관, 사고방식은 정보를 처리하는 방법이라는 뜻으로 셋 다 같은 뜻으로 사용한다.


    절대적인 관점에 대해서 알아보자.

    절대적인 관점이란 정보처리가 이루어지는 과정의 원인에 절대적인 요소, 절대적인 이유, 절대적인 근거가 있다고 생각하는 것이다. 이것의 예를 들어보자. 논리학, 수학에서는 “공리"가 있다고 가정한다.


    그런데 공리가 있다고 “가정"한다는 말 자체가 모순이다. 공리는 근거를 대지 않아도 저절로 참인 절대적인 논리라는 뜻이다. 그런데 공리를 가정한다고 하면 절대적인 논리가 있다고 가상으로 생각해보자는 뜻이다. 그러므로 절대적인 논리가 있다고 가정하자는 말은 절대적인 논리가 없을 수도 있다는 말이다.


    이렇게 모순된 말을 쓸 필요 없이 그냥 “앞으로 할 정보처리에 사용할 상위 규칙을 한 개 제시한다.”라고 하면 된다. 그렇게 하면 되는데 괜히 논리학과 수학의 권위를 세우려고 절대적인 공리 가정같은 주장을 하는 것이다.


    이렇게 공리에 대해서 모순적인 제안이 나온 이유는 1900년대 초 “버틀런트 러셀"이 공리의 허구에 대해서 논증을 했기 때문이다. 논증이라는 말은 논리 증명이라는 뜻이다. 버틀런트 러셀의 이야기는 “로지 코믹스" 책에 나온다. 이렇게 버틀런트 러셀이 공리가 참이 아니라 허구라는 것을 논증하고 나서부터는 논리학, 수학계에서 더 이상 “공리가 있다.”고는 주장하지 못하고 “공리를 가정해 보자.”고 주장한다.



    버틀런트 러셀이 공리의 허구, 공리의 오류를 논증하기 전에는 논리학, 수학계에서 “공리가 있다.”고 주장을 했었다. 절대적인 논리가 있다고 한 것이다. 절대적이라는 말의 뜻은 더 이상 어떻게 만들어졌는지 과정을 알아내지 않아도 되는 원래부터 그런 것, 당연히 그런 것이라는 뜻이다. 그러나 그런 것은 없다. 버틀런트 러셀은 논리학에서 “자기 언급의 오류” 때문에 공리가 성립하지 않는 것으로 증명했다.


    그렇다면 연역론의 상대적인 관점은 무엇일까? 연역론에서는 절대적인 공리, 절대적인 정보처리 과정, 절대적인 요소, 절대적인 근거가 없다고 생각한다. 대신에 연역론의 상대적인 관점은 상위에 관계정보가 되는 규칙, 룰을 정하면 하위에서 확률적으로 결과정보를 만들어 내고 게임을 운영할 수 있다고 주장한다.



    이렇게 연역론에서 주장하는 상대성과 지금까지 역사에서 사람들이 주장한 상대성은 다르다.

    지금까지 역사에서 사람들이 주장한 상대성, 상대적인 관점은 절대성, 절대적인 관점의 반대 개념이었다. 그런데 생각을 해보자. 절대성이 허구다. 절대성 없다. 그런데 그것의 반대 개념이 어떻게 성립할 수 있는가? 그래서 옛날 사람들이 생각하던 상대성은 주로 혼돈, 카오스, 무질서 등이었다.


    그런데 정말 그런가? 상대성은 혼돈, 카오스, 무질서, 무작위인가? 그렇지 않다. 우리는 빅데이터 머신러닝 딥러닝 연구를 하면서 절차지향과 객체지향 정보처리 과정이 무엇이 어떻게 다른지, 결과지향과 확률지향 정보처리 과정이 무엇이 어떻게 다른지 연구를 해보았다.


    절차지향보다 객체지향 정보처리 과정이 상대적으로 더 상대성을 띈다. 왜냐하면 절차지향에서는 절대적으로 특정해 놓은 순서대로 정보를 처리하려고 하고, 그 순서에 해당하지 않는 입력이 들어오거나 변수가 발생하면 오류가 생겨서 프로그램이 제대로 동작하지 않기 때문이다. 반면에 객체지향은 다차원 조건, 사건에 대응해서 작동하도록 프로그램을 설계한다. 객체지향 프로그램이 더 오류를 줄일 확률이 높다. 실제로 객체지향 프로그램은 절차지향 프로그램의 오류를 줄이려는 목적으로 개발한 것이다.


    결과지향과 확률지향 정보처리 과정을 비교해보자. 확률지향 정보처리 과정이 더 상대성을 띈다. 결과지향 정보처리를 할 때는 정확하게 특정을 한 결과정보를 필요로 한다. 그 조건이 맞지 않으면 오류가 생긴다. 그러나 확률지향 정보처리 과정에서는 많은 데이터에서 확률패턴을 추론해서 그것을 근거로 정보처리 판단을 해나간다.



    객체지향 정보처리 과정, 확률지향 정보처리 과정은 더욱 상대적이기 때문에 “불확실성"을 증가시키는가? 그렇지 않다. 오히려 반대다. 오류를 줄일 확률을 높힌다. 정보처리의 정확도를 높힌다. 절대성의 관점으로 프로그램을 만들면 오히려 오류가 확률적으로 더 많이 발생한다.


    절대성의 반대 개념으로 상대성을 설명하려고 하면 절대성의 관점으로 상대성을 해석하려고 하게 되어서 오류가 계속 발생한다. 대표적인 오류로 이런 것이 있다. 베르나르 베르베르라는 소설가가 자신의 책에서 이런 질문을 한 적이 있다. “만약 이 세상에 절대적인 진리가 없고 모든 것이 상황에 따라서 달라지는 상대적인 결과 뿐이라면 이 세상에 너와 나, 우리가 존재하는 것 자체가 무의미한 것이 아닐까? 그리고 이 세상이 전부 상대적이라고 생각하는 것도 상대적이라는 이름의 절대적인 규칙을 적용하는 것이지 않을까?”


    베르나르 베르베르가 한 질문은 두 가지다.

    1. 만약 이 세상에 절대적인 진리가 없고 모든 것이 상황에 따라서 달라지는 상대적인 결과 뿐이라면 이 세상에 너와 나, 우리가 존재하는 것 자체가 무의미한 것이 아닐까?

    2. 이 세상이 전부 상대적이라고 생각하는 것도 상대적이라는 이름의 절대적인 규칙을 적용하는 것이지 않을까?

    이 두가지 질문을 분석해서 대답해보자.


    베르베르의 질문1: 만약 이 세상에 절대적인 진리가 없고 모든 것이 상황에 따라서 달라지는 상대적인 결과 뿐이라면 이 세상에 너와 나, 우리가 존재하는 것 자체가 무의미한 것이 아닐까?


    이 질문을 보면 절대적인 관점, 절대적인 진리가 없다고 가정을 해놓고 이어지는 문장 뒷부분에서는 다시 절대적인 진리, 절대적인 관점에서 상대성을 논해 보려고 하고 있다. 절대성 없다고 가정해놓고 다시 절대성 관점으로 상대성을 풀이해보려고 하는 것이다. 그래서 오류다.


    그리고 상대성에 대해서 논할 때에 상대성을 관계로 이해하는 것이 아니라 결과로 이해하고, 너라는 존재, 나라는 존재, 우리라는 존재를 예를 들어서 이해하려고 한다. 여기서 절대성 관점 외에 또 다른 것을 찾아낼 수 있다. 바로 결과, 존재에 대한 관점이다.


    이 부분이 재미있는 부분이다. 절대성이 없다고 가정하고 진술을 해도 그 사람이 계속 절대성 관점으로 생각을 하기 때문에 오류가 계속 이어진다. 연역론에는 이 절대성 관점, 결과를 근거로 생각하려는 관점, 존재를 근거로 생각하는 관점을 존재규정이라고 부른다.



    연역론 관점에서는 절대성이 없다. 존재가 없다. 결과정보는 과정을 거쳐서 만들어진 것이다.

    한 번 생각을 해보자. 나라는 사람은 과정을 거쳐서 만들어진 것인가, 아니면 원래부터 이렇게 존재하는 것인가? 우리는 이미 답을 알고 있다. 나는 과정을 거쳐서 만들어졌고 살아가면서 유지하는 것이다. 나의 DNA 정보구조체에서 만들어낸 내 몸의 육체 정보구조체가 있고, 내가 생각을 해서 만들어 낸 의식 정보구조체가 있다. 그것으로 내 인생을 실시간으로 운영하고 있다.


    이 우주는 과정을 거쳐서 만들어진 것일까, 아니면 원래부터 이렇게 존재하는 것일까? 이 우주도 과정을 거쳐서 만들어진 것이고 지금도 계속 그 과정을 이어나가고 있다. 그러면 연역론에서는 어떻게 생각하는가? 연역론에서는 상대성을 이렇게 정의한다.

    연역론 사고방식, 연역론 세계관

    1. 정보를 조립해서 다른 정보를 만들어 내면 그것을 정보구조체라고 부른다.

    2. 다른 정보를 만들어 내는 정보를 “상위의 정보구조체", “관계정보"라고 부른다.

    3. 정보구조체를 통해서 만들어진 정보를 결과정보라고 부른다.

    4. 우리는 이 세계의 절대적인 진실을 모른다. 우리가 이 세계의 하위에서 만들어진 개체이기 때문이다.

    5. 그러나 우리는 관계정보를 만드는 방법, 더 상위의 관계정보를 알아낼 수 있다.

    6. 그래서 이 방향을 추적해서 더욱 상위의 관계정보, 확률적으로 더 잘 들어맞는 관계정보를 알아낼 수 있다.

    7. 상위 관계정보가 확률적으로 하위의 결과정보를 만들어 내는 관계, 영향을 주는 관계를 “동조관계"라고 한다.

    8. 정보를 조립해서 정보구조체를 만드는 방법, 관계정보를 만드는 방법이 있다. 그것들을 기본적인 단순한 패턴으로 정리한 것을 연역원리라고 한다.

      1. 많은 관계정보들이 간단한 연역원리 패턴을 조립해서 이루어진다.

      2. 연역원리가 절대적인 원리인 것은 아니다. 이것은 추론해서 알아낸 것이지 원래부터 존재한 것이 아니기 때문이다.

      3. 연역원리 상위에 더 간단한 조립패턴이 있을 수 있다. 연역론은 그것을 계속 연구해 나갈 것이다.

    9. 관계정보를 조립해서 결과정보를 만들 수 있게 하면 그것을 정보구조체라고 부른다.

    10. 정보구조체 중에 일부 결과정보 인풋 아웃풋, 조건 등을 재조립해서 다른 분야에서 사용할 수 있게 만들면 그것을 열린정보구조체라고 부른다. 열린정보구조체는 반조립 상태의 모듈이다. 그래서 이것을 예전에는 연역모듈이라고 불렀다.

    11. 정보구조체들을 많이 모아서 대규모 정보구조체를 만들면 그것을 시스템이라고 부른다. 그래서 정보구조체와 시스템은 같은 뜻이다.





    베르베르의 질문2: 이 세상이 전부 상대적이라고 생각하는 것도 상대적이라는 이름의 절대적인 규칙을 적용하는 것이지 않을까?


    이 질문을 보자. 이 질문은 이런 내용을 담고 있다. “상대적”인 것은 “절대적인 규칙없음"에 해당하는데 이 세상이 전부 상대적이라는 것은 이 세상에 상대적이라는 절대적인 규칙이 있다는 말 아니냐?”하는 질문이다. 연역론은 상대적인 관계라도 확률적으로 더 잘 들어맞는 관계, 확률적으로 영향력이 큰 관계가 있고 덜한 관계가 있다고 했다. 상대적인 관계에서도 절대적인 영향력이 발휘되는 것이 아닌 것이다. 위의 질문은 상대적인 관계를 다시 절대적인 관계로 해석을 했기 때문에 저런 질문이 나오는 것이다. 이렇게 아무리 논리 진술을 해도 사고방식, 관점이 바뀌지 않으면 같은 방식의 오류가 계속 일어난다.



    과정, 패턴, 알고리즘, 행동, 행위

    패턴, Pattern, 알고리즘, Algorithm의 뜻은 둘 다 같다. “정보를 처리하는 과정"이라는 뜻이다. 패턴은 비교적 좀 더 짧고 단순한 과정, 알고리즘은 비교적 좀 더 길고 복잡한 과정을 뜻한다.


    연역원리 도식에 보면 “00을 하는 행위"라는 말이 나온다. “정보처리 과정”은 언어로 나타낼 때 행위로 표현한다. 행위와 행동은 같은 뜻이다. 문장에서 명사, 이름, 결과정보를 비우면 행위와 문법 깔맞춤이 남는다. 그러면 이 문장은 다른 결과정보를 끼워 넣어서 정보를 만들어 낼 수 있는 "열린정보구조체”가 된다. 언어에서 행위, 행동을 표현하는 동사와 문장을 깔맞춤하는 문법이 관계정보, 정보구조체 역할을 하는 것이다. 수학 식에서도 결과정보를 비우면 행위에 해당하는 수학 문법과 관계정보가 드러난다.


    물질적인 현실 세계에서도 정보처리 과정은 행위, 행동으로 표현한다. 예를 들어서 컴퓨터의 경우 오실레이터라는 신호정보의 반복 복제행위를 하는 반도체를 이용해서 정보를 복제하고, 스위치를 이용해서 반복하는 신호를 특정한 패턴으로 만들고 메모리를 이용해서 그 정보를 저장한다. 그리고 저장해놓은 패턴을 다시 조립해서 이어붙이면 그것이 알고리즘이 되고 프로그램이 된다. 이것이 컴퓨터가 정보처리를 하는 방법이고, 어떤 패턴을 어떻게 조립해서 사용할지를 정하는 것이 컴퓨터 프로그램, 소프트웨어다.


    정리를 해보자.

    1. 패턴, 알고리즘, 행동, 행위 전부 "정보처리 과정"을 뜻한다.

      1. 패턴은 비교적 좀 더 짧고 단순한 과정을 뜻한다.

      2. 알고리즘은 비교적 좀 더 길고 복잡한 과정을 뜻한다.

    2. 행동, 행위는 언어 문법과 물질세계에서 정보처리를 하는 과정에 사용하는 말이다.

      1. 언어 문장에서 명사, 이름, 결과정보를 비우면 행위와 문법 깔맞춤이 남는다.

      2. 그러면 이 문장은 다른 결과정보를 끼워 넣어서 정보를 만들어 낼 수 있는 "열린정보구조체”가 된다.

      3. 언어에서 행위를 표현하는 동사와 문법 깔맞춤이 관계정보, 정보구조체 역할을 한다.

      4. 수학 식에서도 결과정보를 비우면 행위에 해당하는 수학 문법과 관계정보가 드러난다.

    3. 물질세계에서도 정보처리 과정을 행위, 행동으로 표현한다.

      1. 예를 들어서 컴퓨터의 경우 오실레이터라는 신호 정보의 반복 복제행위를 하는 반도체를 이용해서 정보를 복제하고, 스위치와 메모리를 이용해서 반복하는 신호를 특정한 패턴으로 만들고 그 정보를 저장한다.

      2. 그리고 저장해놓은 패턴을 다시 조립해서 이어붙이면 그것이 알고리즘이 되고 프로그램이 된다.

      3. 이것이 컴퓨터가 정보처리를 하는 방법이고, 어떤 패턴을 어떻게 조립해서 사용할지를 정하는 것이 컴퓨터 프로그램, 소프트웨어다.



    연역론을 연구하는 방법

    연역론을 연구하는 방법은 이렇다.

    이 세상이 모두 정보처리 과정으로 이루어져 있다는 것을 이해한다. 연역론의 상대성을 이해한다. 재래식 절대성과 상대성의 오류, 결과정보 오류, 존재규정 오류를 이해한다.


    이 세상을 연역론 관점으로 관찰하고 분석한다. 내가 그냥 평소에 생활을 하면서 관찰한 것, 내가 공부하는 것, 내가 업무로 일하는 일 하는 것에서 관찰한 것들에서 정보처리 과정을 분석한다.


    길고 복잡한 정보처리 과정을 좀 더 짧고 단순한 과정으로 분석하고, 이것들이 어떻게 조립되어 있는지 알아내서 정리한다. 길고 복잡한 과정을 짧고 단순한 과정의 조립으로 만들어 본다. 정보처리 과정을 분석할 때는 연역원리의 간단한 패턴을 참고해서 그것을 응용한다.


    그러면 지금 이 패턴이 무엇의 복제인지, 무엇의 확장인지, 무엇과 대칭인지 혹은 두 개 이상의 중첩인지 하는 식으로 정보처리 과정을 비교하면 차이점, 같은 점을 알아낼 수 있다. 지금 이 패턴이 왜 그렇게 만들어졌는지, 어떻게 작동하는지 더 작고 자세한 과정을 알아낼 수 있다.


    정보처리 과정을 분석하면서 그것을 열린정보구조체로 만들어 본다. 정보처리 과정을 언어로 만들어 보고 결과정보를 해제해서 열린정보구조체로 만들어 본다. 수학식을 서술과 도식으로 풀이하고 열린정보구조체로 만들어 본다. 컴퓨터 프로그램 소스를 분석해서 열린정보구조체로 만들고 다른 일에 응용해 본다. 정보처리과정을 알아내고 열린정보구조체로 만들면 다른 분야, 다른 일에 응용할 수 있다. 그것이 나의 창조적인 능력, 나의 노하우가 된다.


    그렇게 해서 알아낸 것들을 사용해서 내가 하려고 하는 일에 정보처리 시스템을 만든다. 정보처리 성공확률이 높은 시스템, 자동대량 정보처리가 잘 되는 시스템을 만든다.


    정리를 해보자.

    1. 이 세상이 정보처리 과정으로 이루어져 있다는 것을 이해한다.

      1. 연역론의 상대성을 이해한다.  

      2. 재래식 절대성과 상대성의 오류, 결과정보 오류, 존재규정 오류를 이해한다.

    2. 이 세상을 연역론 관점으로 정보처리 과정을 관찰하고 분석한다.

      1. 내가 그냥 평소에 생활을 하면서 관찰한 것

      2. 내가 공부하는 것

      3. 내가 업무로 일하는 일 하는 것

    3. 길고 복잡한 정보처리 과정을 좀 더 짧고 단순한 과정으로 분석하고, 이것들이 어떻게 조립되어 있는지 알아내서 정리한다

      1. 길고 복잡한 과정을 짧고 단순한 과정의 조립으로 만들어 본다.

      2. 정보처리 과정을 분석할 때는 연역원리의 간단한 패턴을 참고해서 그것을 응용한다.

        1. 지금 이 패턴이 무엇의 복제인지, 무엇의 확장인지, 무엇과 대칭인지 혹은 두 개 이상의 중첩인지 하는 식으로 정보처리 과정을 비교하면 차이점, 같은 점을 알아낼 수 있다.

        2. 지금 이 패턴이 왜 그렇게 만들어졌는지, 어떻게 작동하는지 더 작고 자세한 과정을 알아낼 수 있다.

    4. 정보처리 과정을 분석하면서 그것을 열린정보구조체로 만들어 본다.

      1. 정보처리 과정을 언어로 표현하고 결과정보를 해제해서 열린정보구조체로 만들어 본다.

      2. 수학식을 서술과 도식으로 풀이하고 열린정보구조체로 만들어 본다.

      3. 컴퓨터 프로그램 소스를 분석해서 열린정보구조체로 만들고 다른 일에 응용해 본다.

      4. 정보처리과정을 알아내고 열린정보구조체로 만들면 다른 분야, 다른 일에 응용할 수 있다.

      5. 그것이 나의 창조적인 능력, 나의 노하우가 된다.

    5. 그렇게 해서 알아낸 것들을 사용해서 내가 하려고 하는 일에 정보처리 시스템을 만든다.

      1. 정보처리 성공확률이 높은 시스템, 자동대량 정보처리가 잘되는 시스템을 만든다.



    관계정보지능

    관계정보지능은 이런 것이다.

    1. 상대적으로 더 객체지향으로 정보처리를 하는 것

    2. 상대적으로 더 확률지향으로 정보처리를 하는 것

    3. 상대적으로 더 비지도학습으로 정보처리를 하는 것


    관계정보지능은 절대적으로 정해진 결과가 아니다. 위에 말한 상대적인 관계에서 더 객채지향으로, 더 확률지향으로, 더 비지도학습으로 정보처리를 하는 시스템을 말한다. 이것의 수준을 일정 이상으로 높이면 그 어떤 주제에 대해서도 한결같은 상대적인 관점으로 정보를 처리하는 봇 시스템을 만들 수 있는데 그것을 연역론에서는 관계정보지능이라고 부른다.



    수학 기호의 혼란

    수학의 기호 체제는 분명하고 명확한 것처럼 여겨지지만 곳곳에 일관되지 않는 혼란이 있다.


    예1) 분수를 쓸 때 15/2 를 simplest form 이라며 6 1/2 라고 표기한다. 그런데 같은 폼으로 3x 와 같이 쓰면 이것은 3 * x의 의미이다. 6 1/2를 3x와 같은 폼으로 이해하면 6 * 1/2 되는데 이것은 전혀 다른 정보처리이다.

    이것을 고치려면 6 1/2 를 6 . 1/2 같이 표현하여 분수 부분이 0 이하의 수 관계에 있는 것을 밝히는 것이 좋다고 생각한다. 왜냐하면 simplest form을 사용하는 이유가 분수에서 정수 부분을 분리해 내려고 하는 것인데 이 때 남는 분수는 0 이하의 수이기 때문이다.

    사실 이런 혼란 때문에 계산기, 프로그래밍 언어에서는 아예 simplest form 입력을 지원하지 않는다.



    공리주의 연구

    '공리계라는 게임의 룰 안에서 절대적인 관계가 성립한다.'를 주장하는 사고방식이다.


    공리주의란 비유클리드 기하학을 처음 접한 수학자들이 수학이 현실세계와 1:1 매칭되지 않는다는 것을 깨달은 후 그러면 '현실세계와 별개의 게임을 만들고 그 게임을 절대적이라고 생각해보자'라고 주장한 것이다.


    공리계의 판정 기준

    1. 모든 정리가 그 공리계에서 얻어질 것

    2. 그 공리계에서 임의로 1개의 명제를 제외시킨 경우 이미 증명불가능하게 되는 정리가 존재할 것

    3. 그 공리계로부터 서로 모순되는 여러 정리를 증명하는 것이 불가능할 것


    연역론 용어로 변환해본다. 공리계를 상부 규칙이라고 바꿔 부른다.

    1. 모든 하부 규칙은 예외처리 없이 상부 규칙을 조립해서 만들어야 한다.

    2. 상부 규칙은 다른 상부 규칙과 겹치거나 서로가 서로를 참조하는 경우가 없어야 한다.

    3. 상부 규칙을 사용해서 만든 하부 규칙들이 서로 모순되지 않아야 한다.


    괴델의 '불완정성 정리'는 공리계 규칙을 사용해서 공리계의 판정 기준 '3. 하부 규칙 사이의 무모순 관계'에 모순되는 경우를 만들어서 공리주의가 주장하는 '절대적인 게임'을 만들 수 없다고 증명한 것이다.


    연역론 관점에서 공리주의를 보면 어떤 것을 알수있는가?

    게임을 만들어서 그 게임이 현실에서 성립하는지 알 수 있는 방법을 그 게임을 직접 실천하는 방법 뿐이다.

    가상의 규칙만 만들고 그 규칙이 절대적으로 맞기를 기대하면 실패한다.

    최신 과학의 사고방식은 이전에 정의한 게임과 다른 결과가 발견되면 끊임없이 예외처리하고 예외를 포함하는 상위의 규칙을 탐구하는 것이다.



    연역론은 게임을 어떻게 정의하는가?

    연역론은 완벽한 게임을 정의하려고 하지 않는다.


    연역론에서 이 세계는 정보로 이루어진다. 이 세계가 지속하는 방법을 정보처리라고 부른다.

    '나'는 정보처리 방법을 조립하여 만든 정보구조체이다.

    정보구조체 '나'는 자신을 지속하려고 하기 때문에 더 나은 정보처리 방법을 탐구한다.

    내가 나의 내부에서 하는 정보처리는 이 세계가 하는 정보처리와 다른 별개이다.

    나는 이 세계가 하는 정보처리를 나의 내부에 유사복제한다.

    정보처리 방법을 조립해서 상위 규칙을 만든다. 이 규칙은 나의 내부에서는 비교적 절대적이만 이 세계의 정보처리와는 별개이다.

    내가 나의 내부에서 만든 정보처리 방법을 사용해서 나 자신을 지속할 수 있는지 알수 있는 방법은 오로지 내가 그 정보처리 방법을 실천하는 것 뿐이다.


    우리가 컴퓨터를 사용하고 프로그래밍을 하는 것은 자동대량 시스템을 운영하려고 하는 것이다.

    컴퓨터 프로그램은 정보처리 과정의 관점에서는 절차지향과 객체지향으로 구분하고 정보를 처리하는 근거의 관점으로는 결과지향과 확률지향으로 구분한다.

    절차지향 방식은 닫힌 시퀀셜로 정해진 행위를 데이터를 사용해서 처리한다.

    객체지향 방식은 비교적 열린 시퀀셜로 된 객체를 사용해서 테이터를 처리한다.

    결과지향 방식은 결과데이터를 정보 처리의 근거로 사용하여 정보처리 판정을 한다.

    확률지향 방식은 결과정보 데이터에서 확률패턴을 만들어서 그 확률패턴으로 정보처리 판정을 한다.



    절차지향 방식과 결과지향 방식은 과정 중에 빈공간이 생기고 판정 근거가 정확한 결과데이터가 아닐 때 오류가 생긴다.

    객체지향 방식과 확률지향 방식은 과정을 유연하게 조정하여 빈공간을 처리하고 판정 근거가 되는 데이터가 정확하지 않아도 확률 어림짐작을 하여 정보처리 정확도를 유지하면서 정보처리를 할 수 있다. 그래서 자동대량 정보처리를 효과적으로 할 수 있다.



    빅데이터는 대량의 데이터를 사용한 자동대량 정보처리 시스템을 통틀어서 말하는 것이다. 머신러닝과 딥러닝은 대량의 데이터를 사용하면서 객체지향, 확률지향 방식을 사용하는 것이다. 이 두 개의 관점을 다차원으로 적용할 수 있기 때문에 빅데이터이면서 머신러닝인 경우가 있고 빅데이터이면서 머신러닝이 아닌 경우가 있다. 예를 들어서 대량의 정보를 자동으로 처리하면서도 엑셀, VBA, SQL처럼 정형 데이터 처리를 해서 머신러닝을 안 하는 경우가 있다.


    그러나 대부분의 빅데이터 시스템은 정형 데이터와 비정형 데이터를 모두 사용하고 머신러닝으로 확률지향 정보처리를 한다. 왜냐하면 대량 데이터를 결과지향 프로그램으로 정보처리하려고 하면 데이터를 결과정보로 가공하고 특정하는데 시간과 컴퓨팅 자원이 많이 소모되고 도중에 에러가 나면 처음부터 다시 검증을 해야 하는 등 비용이 너무 많이 들기 때문이다. 관련정보 링크 빅데이터란 무엇인가?


    딥러닝은 머신러닝의 방식 지도학습, 비지도학습 중에서 비지도학습 종류의 한 방식이다. 비지도학습은 프로그래머가 기본 알고리즘을 덜 정해 주어도 프로그램이 정보비대칭성을 스스로 추론해서 알고리즘을 만들어 나가는 것이다. 반면에 지도학습은 프로그래머가 기본 알고리즘을 더 많이 제시해 주고 프로그램은 그것을 강화해서 학습하는 것이다. 딥러닝은 이 비지도학습 중에 “딥 뉴럴 네트워크, DNN”에서 이름을 따온 것이다.



    비지도학습은 프로그래머가 아웃풋으로 원하는 것만 제시해주고 거기까지 정보를 처리해 나가는 과정을 머신러닝 프로그램이 자기 스스로 데이터셋에서 정보비대칭성을 추론해서 해나가도록 한다. 여기에 비해서 지도학습은 아웃풋까지 가는 과정 단계를 프로그래머가 좀 더 많이 제시해주고 그것을 중심으로 강화학습을 하도록 한다. 이것은 상대적인 차이다. 상대적으로 더 비지도학습인 경우가 있고, 덜 비지도학습인 경우가 있다.


    인공지능이란 용어는 머신러닝을 포함한 정보구조체가 물리적인 결과로 드러나는 행위를 하는 경우 그것을 부르는 말로 사용한다. 그러나 우리는 인공지능이라는 말을 사용하지 않고 관계정보지능이라는 말을 사용한다.


    왜냐하면 인공지능이라는 말에는 두 가지 의미가 담겨 있기 때문이다.

    1. 인간이 만들어 낸 정보처리 시스템(지능)

    2. 인간을 닮은 정보처리 시스템(지능)

    그런데 한 번 생각해 보자. 첫째, 인간이 만든 도구 중에 인공이 아닌 것이 있는가? 인간이 손을 대면 다 인공이다. 그래서 이 분류는 적합하지 않다.

    둘째, 인간을 닮아서 인공지능이라면 만약 나중에 이 정보처리 시스템이 인간의 능력보다 월등히 더 나아지거나 혹은 다른 차원으로 진화할 경우 뭐라고 부를 것인가? 그래서 인간을 닮았다는 뜻으로 쓰기에도 적합하지 않다.

    그래서 연역론을 연구하는 우리는 이 정보처리 시스템이 관계정보 정보처리를 하는데 적합하다는 의미로 관계정보지능이라고 부른다.


    우리가 머신러닝, 딥러닝 연구를 하는 이유는 우리가 하는 일에서 자동대량 정보처리를 효과적으로 하려고 하기 때문이다.



    관계정보지능

    관계정보지능은 이런 것이다.

    1. 상대적으로 더 객체지향으로 정보처리를 하는 것

    2. 상대적으로 더 확률지향으로 정보처리를 하는 것

    3. 상대적으로 더 비지도학습으로 정보처리를 하는 것


    관계정보지능은 절대적으로 정해진 결과가 아니다. 위에 말한 상대적인 관계에서 더 객채지향으로, 더 확률지향으로, 더 비지도학습으로 정보처리를 하는 시스템을 말한다. 이것의 수준을 일정 이상으로 높이면 그 어떤 주제에 대해서도 한결같은 상대적인 관점으로 정보를 처리하는 봇 시스템을 만들 수 있는데 그것을 연역론에서는 관계정보지능이라고 부른다.



    20161127 Julia Lang 공부

    c++로 공부한 퍼셉트론 코드를 julia로 포팅하려고 한다.


    Julia 언어는 수학자, 데이터 공학자의 입장에서 프로그래밍을 쉽게 하려고 기존 프로그래밍 언어의 문법 중 수학 표기방식과 충돌하거나 혼동되는 부분을 수학 문법이 우선이 되도록 만든 프로그래밍 언어이다.

    배열의 시작 번호가 1부터 시작하는 점, x^2로 제곱을 연산할 수 있는 것, 다른 객체지향 프로그래밍 언어에는 있는 객체 클래스가 없고 함수를 중심으로 사용하는 점, python이나 javascript처럼 동적 변수(형식을 인터프리터가 자동으로 정하는 것) 방식을 사용하는 점 등이 특징이다.

    객체 클래스가 없는 대신에 Type이라는 것이 있는데 c언어의 construct와 비슷하게 여러개의 변수를 모아서 하나의 변수 타입에 넣은 것이다. 객체 클래스와 다른 점은 상속 개념이 없는 점, 생정자 함수 말고 다른 함수를 넣으려면 변수로 만들어서 넣어야 하는 점이다. Julia에서는 Type을 객체 처럼 사용한다.

    그래서 억지로 끼워넣으면 이전 방식의 객체지향 언어와 유사한 구조로 만들 수는 있다.


    기존 객체지향 언어는 객체가 속성과 함수를 내장하고 있다. Julia에서 사용하는 Type은 속성은 내장하고 있는데 함수를 type 외부에 작성하기 때문에 다른 type과 함수를 공유해서 사용할 수 있다.

    어떤 방식이 더 열려있는 정보처리 방식인가?

    정보처리 방법을 중심으로 하고 필요한 경우 연결된 정보처리 방법 여러개를 동적으로 묶어서 객체로 사용하고 재조립할 수 있는 것이 더 열려있는 방식이다. 이 관점으로 만든 프로그래밍 언어는 없다.

    이 관점으로 프로그래밍을 하려면 어떻게 해야 하는가?

    연연론에 이런 말이 있다. '어떻게'를 실행해서 '왜', '무엇'을 생성한다.

    함수 역시 정보처리 과정을 블럭으로 묶은 것이다.

    객체를 하나의 딕셔너리 타입으로 보고 정보처리 방법을 넣어서 연결되게 만든다.


    확률 정보처리를 프로그래밍 언어에서 하게되면 어떻게 정보처리를 할 수 있을까?

    변수를 미리 선언하지 않는다. 정보를 먼저 두고 유사한 정보인지 다른 정보인지 구별해서 연산할 수 있다.

    이름이 필요하면 후처리로 붙여줄 수 있다. 혹은 컴퓨터가 적절한 이름을 붙여준다.

    변수이름을 정확하게 치지 않고 유사한 이름을 써도, 고정된 수치값을 입력하지 않고 확률적인 수치값을 입력해도 정보처리가 가능하다.

    외부환경이 달라지면 내부의 정보처리 방식이 재조립된다. 개발자가 정보처리 구조를 변경하면 관련 세부내용을 자동으로 조정한다.



    20161128 Convolutional Neural Network 이론 연구

    Convolutional Neural Network - Wikipedia


    overfitting 현상이란 Neural Network의 레이어를 많이 늘리고 샘플 데이터를 많이 입력할 때 Neural Network가 특정 이벤트에 지나치게 집착하여 정보처리 성공률이 낮아지는 경우이다.


    Convolutional Neural Network, Convnet 혹은 CNN은 인간의 시신경 구조를 모방하여 입력 데이터를 첫쨰, 특징을 가진 작은 구역들의 모임으로 분류하고 (Convolutional layer) 둘째, 데이터를 뭉뚱그려 데이터 동조관계를 쉽게 찾을 수 있게 (Pooling layer, SubSampling) 만든다.


    S231n: Convolutional Neural Networks for Visual Recognition - Stanford CS class github

    UNDERSTANDING CONVOLUTIONAL NEURAL NETWORKS FOR NLP wildml blog gihub

    UFLDL Tutorial - Stanford Deep Learning Tutorial

    RBM, DBN, CNN study - 한글 요약 블로그

    CNN이 pre-training 단계에서는 Convolution Layer와 Subsampling을 하기 위해 비지도 세팅을 하지만 실제 정보를 판정하는 부분에서는 라벨링된 데이터를 사용해서 지도학습을 한다.



    20161203 Perceptron과 Back-Propagation 공부

    Gradient Desent Method는 단계적 내림 방법이라고 번역한다. 이것은 딥러닝 뉴런이 목표로 한 값을 출력하도록 가중값을 분포시키는 Back-Propagation 방법의 내부 정보처리 과정으로 사용한다.


    뉴런이 입력을 받아서 출력을 하는 과정은 아래와 같다.

    output = activation function ( sigma(input) = weight * input + bias )


    가중값과 인풋값을 곱한 뒤 바이어스를 더한다. 그것을 activation함수로 조정한다.

    가중값과 인풋값을 곱한 뒤 더하는 수식는 Vector 수학에서 dot product와 같은 방식이다.

    Vector수학에서 두 Vector 간에 dot product를 해서 얻는 상수를 scaler라고 부르는데 이 scaler는 두 Vector 사이의 방향과 거리관계를 하나의 상수로 표현하는 특징이 있다.

    뉴런 프로그래밍에서는 페어가 되는 가중값 배열과 인풋값 배열을 각각의 Vector로 보는 것이다.


    아래는 Back-Propagation의 과정이다.

    weight = old weight - learning rate * (currunt output - disired ouput) * gradient desent function on activation function(current output) * old input



    gradient desent method를 하는 이유는 뉴런이 내부에서 특정 activation함수를 사용할 경우 해당 activation 함수가 목표 출력값을 내려면 가중값이 얼마가 입력되어야 하는지 추적하는데 사용하려고 하기 때문이다.


    위 과정을 더 단순하게 설명하면 어떻게 할 수 있는가?

    1. 학습이라는 개념을 제외하고 뉴럴넷이 하는 액티베이션 과정만 보면 이것은
      연결된 여러개의 데이터에서 형식을 제거하고 데이터 간의 연결된 관계를 결과정보 수치로 만드는 행위이다.

      1. 형식을 제거했기 때문에 출력값과 가중값으로 입력값을 복원할 수 없다. 수학의 역연산이 불성립한다.

    2. back-propagation을 학습이라고 했을 때 뉴럴넷이 하는 학습이라는 정보처리는
      데이터 간의 관계를 인간이 보고(혹은 인간이 점수매기는 규칙을 넣어서) 더 중요하다고 생각한 정도를 확률 점수로 매기는 행위이다.



    이것을 보면 무엇을 알 수 있는가?

    입력에 반응해서 출력을 한다. 출력하는 정보는 형식을 제거한 관계를 나타내서 더 열려있지만 입력을 받아 출력을 하는 과정은 닫혀있고 고정되어있다.

    인간의 정보처리 과정과 비교하면 FNN, CNN, DQN 까지는 파충류 뇌와 유사하다.


    뉴턴이 만유인력을 정의할 때 미분 방법을 만들어서 사용했다고 한다.

    미분의 정보처리 과정이 곧 연결된 여러개의 백터 데이터를 가져와서 벡터 형식을 제거하고 백터간의 연결된 관계를 결과정보 수치로 만드는 행위이다.


    kaggle datasets - 각종 사람이 라벨링하여 분류한 데이터 셋을 다운받을 수 있다.



    20161217 다중 퍼셉트론 예제코드의 처리과정 풀이

    Acts, Grads는 백터 변수이고 Weights는 매트릭스 변수 이다.


    Acts, Grads 백터와 Weights 매트릭스 변수의 내부 구성 요소이다.


    위 과정의 공식은 아래와 같다. 도식에서 bias는 생략했다. * 뉴런 레이어 관점에서 Acts[P]는 input,  Acts[N]은 output과 같다.

    output = activation function ( sigma(input) ) <= sigma(input) = weight * input + bias


    위 과정의 공식: weight = old weight - learning rate * (currunt output - disired ouput) * gradient desent function on activation function(current output) * old input

    예제에서는 (currunt output - disired ouput)를 (disired ouput - currunt output)으로 고쳐서 weight에 적용하는 단계에서 old weight에 계산한 학습값을 빼는 대신 더하는 것으로 처리했다.

    Grad배열의 요소는 (currunt output - disired ouput) * gradient desent function on activation function(current output) 을 계산한 값이다.


    구현한 결과 예제에서 학습시키는 것은 학습, 출력이 정상적으로 되는데 XOR을 학습시키려고 하니 예상한대로 값이 나오지않고 오작동을 하였다. 해당 예제 자체의 문제인 것이 의심되어서 앞으로 다른 예제, 다른 언어로 만든 예제를 찾아서 비교해 보고 원인을 추적해본다.



    To Be Continues..

    여기까지 읽어 주셔서 감사하고요. 저희는 이 문서를 구글문서로 작성해서 계속 업데이트하고 있습니다. 차후에는 별도의 웹사이트를 만들어서 관리할 생각입니다. 영어와 중국어로 번역할 계획도 있습니다.


    의견, 피드백은 여기로 주십시오.

    이기준 이메일

    이기준 페이스북


    연역론에 관해서 궁금하신 분은 아래 칼럼 리스트를 참고해 주십시오.

    연역론 칼럼 리스트



    이 게시물을 추천한 분들의 목록입니다.
    [1] 2016/12/20 14:20:59  39.7.***.248  네티지아  715866
    [2] 2016/12/20 14:29:14  121.180.***.62  2ane  620419
    [3] 2016/12/20 14:42:50  210.95.***.136  꼬반  432577
    [4] 2016/12/20 14:46:07  110.76.***.64  キャスター  655684
    [5] 2016/12/20 14:53:38  203.241.***.188  독ㄱㅓ노인  407498
    [6] 2016/12/20 15:01:44  114.202.***.142  샘결  155659
    [7] 2016/12/20 15:45:54  182.221.***.201  묻어가자  33830
    [8] 2016/12/20 15:47:01  117.111.***.11  붓다™  390391
    [9] 2016/12/20 16:04:02  58.148.***.15  일렉트럼  500082
    [10] 2016/12/20 16:28:57  98.155.***.221  긍정대답왕  370351
    푸르딩딩:추천수 3이상 댓글은 배경색이 바뀝니다.
    (단,비공감수가 추천수의 1/3 초과시 해당없음)

    죄송합니다. 댓글 작성은 회원만 가능합니다.

    번호 제 목 이름 날짜 조회 추천
    415385
    미국의 포토존 자판기 [8] 펌글 톡쏘는라임 19/09/21 01:41 8754 63
    415384
    특이점이 온 제조업체 현장 [39] 펌글 3일 눈물한스푼 19/09/20 22:49 23351 84
    415383
    전국명품 아파트 모음 [18] 펌글 감동브레이커 19/09/20 22:46 14303 129
    415382
    후쿠시마 원전 사고 '도쿄전력' 경영진 무죄 판결 [33] 펌글 ㅊ발라응원해 19/09/20 21:58 11373 83
    415381
    단식 체험하는 만화 [11] 펌글 감동브레이커 19/09/20 21:36 14074 91
    415380
    한국 제과의 문제점.jpg [28] CenDo 19/09/20 18:21 36789 91
    415379
    약후방) 신재은 모델님 [51] 아흠페도냄새 19/09/20 18:20 37804 74
    415378
    영어발음 이야기 [47] 민물고기 19/09/20 17:05 23196 99
    415377
    성공한 생선가게 고양이 사장님 [4] 펌글 허우적대는人 19/09/20 16:51 22094 92
    415376
    솔직하게 말해보는 중소기업이 원하는 인재상 [20] 거대호박 19/09/20 16:25 28593 90
    415375
    귀여운 아기 [16] 펌글 허우적대는人 19/09/20 16:23 20552 90
    415374
    관광 보내드리는 만화 [7] 펌글 성사마 19/09/20 16:07 18251 90
    415373
    노홍철 주식사건 [24] 펌글 눈물한스푼 19/09/20 16:01 29300 88
    415372
    수입이 절대적으로 시급한 제품 [22] 펌글 눈물한스푼 19/09/20 16:00 32737 92
    415371
    야무진 손님 수준 [32] 펌글 성사마 19/09/20 15:50 21127 103
    415370
    5만년 냉동 소고기 시식후기 [17] 왜안됀데 19/09/20 15:45 29863 96
    415369
    뜻밖의 중독자.jpg [11] 펌글 성사마 19/09/20 15:37 24389 101
    415368
    병장출신 일반인과 운동선수 [17] 펌글 눈물한스푼 19/09/20 15:25 30223 91
    415367
    나의 집은 고시원 [17] 엄청난초록색 19/09/20 14:21 18310 123
    415366
    망하는 음식점들 특징.jpg [41] 방만 19/09/20 14:13 24688 115
    415365
    반도의 쩌는 1+1 이벤트 [24] 펌글 허우적대는人 19/09/20 12:12 34019 105
    415364
    출근때 다짐하는 직장인들 [21] 펌글 톡쏘는라임 19/09/20 10:26 31508 121
    415363
    귀여운 동물 가족들 [19] 펌글 허우적대는人 19/09/20 09:45 22801 125
    415362
    불x친구 불x이 사라진다면 [52] 라쏘 19/09/20 09:23 22787 137
    415361
    해야 될 당연한 일. [14] 김니체 19/09/20 09:14 20626 158
    415360
    본인이 귀여운 걸 너무 잘 알고 있는 여배우 [26] BandS 19/09/20 08:59 33539 131
    415359
    동물 친화력 쩌는 소녀 [29] 펌글 허우적대는人 19/09/20 07:29 29628 132
    415358
    질투심 많은 아이 [9] 초보이용자 19/09/20 04:59 30174 110
    415357
    세종대왕이 개쩌는 이유 [59] 펌글 허우적대는人 19/09/20 00:53 34863 193
    415356
    쌍권총의 전설 김상옥 열사 이야기 [28] 펌글 허우적대는人 19/09/19 23:28 21256 268
    [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [다음10개▶]
    단축키 운영진에게 바란다(삭제요청/제안) 운영게 게시판신청 자료창고 보류 개인정보취급방침 청소년보호정책