모바일 오유 바로가기
http://m.todayhumor.co.kr
분류 게시판
베스트
  • 베스트오브베스트
  • 베스트
  • 오늘의베스트
  • 유머
  • 유머자료
  • 유머글
  • 이야기
  • 자유
  • 고민
  • 연애
  • 결혼생활
  • 좋은글
  • 자랑
  • 공포
  • 멘붕
  • 사이다
  • 군대
  • 밀리터리
  • 미스터리
  • 술한잔
  • 오늘있잖아요
  • 투표인증
  • 새해
  • 이슈
  • 시사
  • 시사아카이브
  • 사회면
  • 사건사고
  • 생활
  • 패션
  • 패션착샷
  • 아동패션착샷
  • 뷰티
  • 인테리어
  • DIY
  • 요리
  • 커피&차
  • 육아
  • 법률
  • 동물
  • 지식
  • 취업정보
  • 식물
  • 다이어트
  • 의료
  • 영어
  • 맛집
  • 추천사이트
  • 해외직구
  • 취미
  • 사진
  • 사진강좌
  • 카메라
  • 만화
  • 애니메이션
  • 포니
  • 자전거
  • 자동차
  • 여행
  • 바이크
  • 민물낚시
  • 바다낚시
  • 장난감
  • 그림판
  • 학술
  • 경제
  • 역사
  • 예술
  • 과학
  • 철학
  • 심리학
  • 방송연예
  • 연예
  • 음악
  • 음악찾기
  • 악기
  • 음향기기
  • 영화
  • 다큐멘터리
  • 국내드라마
  • 해외드라마
  • 예능
  • 팟케스트
  • 방송프로그램
  • 무한도전
  • 더지니어스
  • 개그콘서트
  • 런닝맨
  • 나가수
  • 디지털
  • 컴퓨터
  • 프로그래머
  • IT
  • 안티바이러스
  • 애플
  • 안드로이드
  • 스마트폰
  • 윈도우폰
  • 심비안
  • 스포츠
  • 스포츠
  • 축구
  • 야구
  • 농구
  • 바둑
  • 야구팀
  • 삼성
  • 두산
  • NC
  • 넥센
  • 한화
  • SK
  • 기아
  • 롯데
  • LG
  • KT
  • 메이저리그
  • 일본프로야구리그
  • 게임1
  • 플래시게임
  • 게임토론방
  • 엑스박스
  • 플레이스테이션
  • 닌텐도
  • 모바일게임
  • 게임2
  • 던전앤파이터
  • 마비노기
  • 마비노기영웅전
  • 하스스톤
  • 히어로즈오브더스톰
  • gta5
  • 디아블로
  • 디아블로2
  • 피파온라인2
  • 피파온라인3
  • 워크래프트
  • 월드오브워크래프트
  • 밀리언아서
  • 월드오브탱크
  • 블레이드앤소울
  • 검은사막
  • 스타크래프트
  • 스타크래프트2
  • 베틀필드3
  • 마인크래프트
  • 데이즈
  • 문명
  • 서든어택
  • 테라
  • 아이온
  • 심시티5
  • 프리스타일풋볼
  • 스페셜포스
  • 사이퍼즈
  • 도타2
  • 메이플스토리1
  • 메이플스토리2
  • 오버워치
  • 오버워치그룹모집
  • 포켓몬고
  • 파이널판타지14
  • 배틀그라운드
  • 기타
  • 종교
  • 단어장
  • 자료창고
  • 운영
  • 공지사항
  • 오유운영
  • 게시판신청
  • 보류
  • 임시게시판
  • 메르스
  • 세월호
  • 원전사고
  • 2016리오올림픽
  • 2018평창올림픽
  • 코로나19
  • 2020도쿄올림픽
  • 게시판찾기
  • 오유인페이지
    개인차단 상태
    이기환님의
    개인페이지입니다
    가입 : 16-12-19
    방문 : 49회
    닉네임변경 이력
    회원차단
    회원차단해제
     

    이기환님의 댓글입니다.
    번호 제목 댓글날짜 추천/비공감 삭제
    13 화장을 절대 하면 안되는 이유.pann [새창] 2018-01-01 19:19:14 0 삭제
    https://youtu.be/owC3iHfA_jI
    보는 사람은 고통스러울 수 있겠네요.
    12 없어서 만든 오유 베스트 ver 1.1 [새창] 2017-12-31 21:11:38 0 삭제
    우와 대단하다.
    git 공개 해주심 안될까요? 참여하고 싶습니다.
    11 동물의 근친교배에 관하여 [새창] 2017-12-04 09:10:49 0 삭제
    '나쁜 결혼'이 아니라 기형, 유전병을 가진 아기를 출산할 가능성이 높은 커플이겠죠. 만약 이들의 결혼을 국가, 사회적으로 막거나 프로파간다로 막으려고 한다면 그것은 우생학과 같이 사람을 말잘듣게 세뇌시키는 나쁜 짓입니다.
    그러나 커플이 서로의 유전 특질을 이해하고 비록 건강한 아이를 출산할 가능성이 낮더라도 기죽지 않고 도전하고 사회에서 그런 커플에게 지원을 한다면 더 건강한 사회가 될 것이라고 생각합니다. 왜냐하면 인간은 신체적으로 질이 떨어져도 사고방식을 개발해서 살아갈 수 있으니까요.
    10 오랬만에 컴파일러 개발 근황 [새창] 2017-01-25 17:56:19 1 삭제
    지난 글에서 golang이 애매한 언어다라는 말씀을 하셨는데 혹시 Julia 언어에 대해서는 어떻게 생각하시나요?
    Julia는 Python처럼 유연하면서도 C++ 수준의 실행속도를 낸다고 하는데요. (함수 추상화, 메타프로그래밍 등 지원)

    또 궁금한 점이 선생님께서 작업하시는 것은 고급언어를 포함하나요? 아니면 다른 고급언어에서 포팅이 가능한 로우레벨 언어인가요?
    9 원 게시글이 삭제되었습니다. [새창] 2016-12-22 15:51:54 1 삭제
    여기 다른 분께서 해당 이슈에 대해서 피드백 주신것이 있어서 공유합니다.
    @어쩌다어른 님께서 어떤 관점에서 문제를 지적하시는지 잘 이해할 수 없었는데 이분의 글을 보니 좀 이해가 됩니다.

    ```
    Shin Minsuk 링크를 한번 읽어봤는데 전반적으로 아주 훌륭하게 잘 설명해 놓았네요. 그런데 cnn 기술이 overfitting을 피할 수 있는 optimization method 중 하나로 볼 수 있다고 하셨는데 이 문장 자체는 약간 혼란스럽네요. 원글에서 이 부분을 찾을려고 해도 찾을 수가 없네요.

    cnn은 모델이지 optimization method가 아니거든요. optimization method는 stochastic gradient method 같은 것이 쓰이구요. optimization 방법은 cnn 모델을 fitting또는 learning하기 위함이지 cnn 모델 자체가 optimization method는 아닙니다. cnn 모델이 overfitting을 피할 수 있는 이유는 링크 글에 설명된 trick 덕분이구요. 모델 자체가 overfitting을 피할 수 있게 설계되어 있는 것은 아닙니다.
    ```

    답변:
    정리해 주셔서 감사합니다. 이해하는데 도움이 됩니다.
    말씀하신 부분은 제가 이해할 수 있는 범위에서 개념을 분해하고 다시 정의하는 과정에서 기존 학계에서 사용하는 단어와 충돌이 생긴 것 같습니다.
    말씀드렸다시피 저는 딥러닝을 밑바닥부터 연구하는 입장으로 접근하다보니 기존 전문가가 보시기에 상이한 내용이 있을 수 있습니다. 님께서 조언 주신것과 같이 단어에 대한 정의가 있고 그것이 어떻게 구분되는지 알려주시면 그 내용을 다차원으로 제가 하는 연구에 반영할 수 있습니다.
    앞으로 더 개선하도록 하겠습니다.
    8 원 게시글이 삭제되었습니다. [새창] 2016-12-22 12:18:41 1 삭제
    CNN 기술은 overfitting을 최대한 피할 수 있는 optimization mehtod 중 하나로 볼 수 있다.
    CNN은 overfitting issue를 모델 complexity를 줄이는 것으로 해결한다.

    cnn을 포함한 모든 머신러닝은 오버피팅을 기본적으로 피하려고 나온 것이다.
    하지만 cnn은 이미지데이터에 하이레벨 피처를 디노이징하면서 기존기법대비 잘뽑내는 걸 보여줬다.

    두 문장이 크게 틀린 문장입니까?

    처음부터 넓은 관점에서 방향이 틀린 것인지 좁은 관점, 테크니컬 이슈에서 단어 혼란이 발생한 것인지 구분해서 설명하시는게 올바른 방법이라고 생각합니다.
    그렇지 않고 두리뭉실하게 오류가 너무 많다, 이것도 오류 저것도 오류다, 이런식으로 말씀하시면 인상비평과 다른점이 없을 것입니다.
    7 원 게시글이 삭제되었습니다. [새창] 2016-12-22 08:56:56 0 삭제
    CNN 기술은 overfitting을 최대한 피할 수 있는 optimization mehtod 중 하나로 볼 수 있다.
    CNN은 overfitting issue를 모델 complexity를 줄이는 것으로 해결한다.
    출처 SanghyukChun - Machine Learning Study
    http://sanghyukchun.github.io/75/

    저는 이것을 보고 공부하는 과정에서 CNN을 왜하는 것인지 하는것과 안하는 것에 어떤 차이가 있는지 알아내는것에 단서가 된다고 생각하여 해당 단락에 넣었습니다.
    이것이 왜 잘못되었는지 설명해 주십시오.
    6 원 게시글이 삭제되었습니다. [새창] 2016-12-21 17:39:35 2 삭제
    말씀하신 문제에 대한 정확한 답변이 될지는 모르겠지만 참고가 될것 같아 제가 리서치 중 발견한 정보를 공유합니다.

    Accelerating Eulerian Fluid Simulation With Convolutional Networks
    http://www.gitxiv.com/posts/t7s2sXaJyADjBG9Aq/accelerating-eulerian-fluid-simulation-with-convolutional

    fluid dynamic 시뮬레이션도 linear algebra이니 이 논문 내용이 조금이나마 도움이 될것 같습니다.
    이걸로 정확한 결과를 예측한다기 보다는 대략적으로 맞는 방향으로 갈지 근사치를 빠르게 알아내는 용도로 사용할 수 있을 것 같습니다.
    5 원 게시글이 삭제되었습니다. [새창] 2016-12-21 08:21:45 0 삭제
    @어쩌다어른
    컨볼루션 연산 제목 안에 오버피팅 내용이 포함된 것은 공부하는 과정에서 편의상 붙인 것이고 필연적인 관계가 있다고 쓴것은 아닙니다. 굳이 집어내신다면 제가 실수한 것이 맞습니다.

    님 말씀대로 제가 연구를 하다가 결론이 나고 논리적으로 완결성이 있다고 판단되면 관련 연구자들에게 조언을 받고 논문을 쓰는 것을 검토해보도록 하겠습니다.

    다만 저는 본문에서 이것이 논문이다라고 언급한 적이 없고 글의 내용 자체도 연구를 하는 과정을 기록한 내용입니다.
    모든 글은 주관적인 글이지 이 세계에 완벽하게 객관적인 글이란 존재하지 않습니다.
    비교적 객관적인 글은 그 글에서 설명한 그 내용으로 실제 현실에서 실천이 가능하고 그 실천한 내용을 담백하게 표현한 글입니다.
    그런 의미에서 저는 객관적인 글에 가까워 지려고 항상 노력하고 있습니다.

    님께서도 하시는 말씀안에서 설명한 내용으로 실제 실천이 가능하도록 좀 더 풀어서 써주시면 제가 이해하는데 도움이 될것같습니다.
    더 나은 방향으로 가도록 조언 주시는 것으로 생각하고 열심히 연구하겠습니다.
    4 원 게시글이 삭제되었습니다. [새창] 2016-12-21 07:50:22 0 삭제
    글 본문에서 언급된 이기준님의 동생 이기환입니다.
    질문하신 분께서 좀더 담백하게 말씀하시는 정보가 무엇인지 정의를 해주셨으면 좋겠습니다.

    연구하는 사람 입장에서 자신이 접할 수 있는 범위내에서 최대한 연관 관계를 찾고 사고를 전개해 나가는 것은 당연한 연구의 과정입니다.
    연구과정에서 더 알게되면 개선할 가능성이 더 커지겠지요.
    그런데 질문하신 분께서는 단편적인 부분만 꼽아서 잘못되었다고 지적만 하셨지 말씀하시는 것의 정의가 어떻게 되는지 그것과 제가 연구한 것과 어떻게 다른지 설명을 해주시지 않아서 솔직히 드릴 말씀이 없습니다.

    연구, 개인일기, 객관성 그런 얘기는 하지 말아주십시오. 연구라는 단어는 그 사람이 어느 수준이상이 되어야만 쓸 수있는 계급적인 단어가 아닙니다.

    그리고 일반인들이 이 글을 읽고 혼란스러울 수 있다고 말씀하셨습니다.
    이 글을 읽는 많은 사람들이 얼마나 읽을 글이 없었으면 이 글을 읽고 정보를 얻으려고 하겠습니다.
    님께서 말씀하시는 그 정보들이 이미 풀이되어있고 접급하기 쉽게 되어 있었다면 제가 이렇게 힘들게 풀어서 정리하지도 않았겠지요.

    앞으로 더 생각해볼 주제, 키위드를 제시해주신것은 감사하게 생각합니다. 열심히 연구하겠습니다.
    3 원 게시글이 삭제되었습니다. [새창] 2016-12-21 07:32:20 0 삭제
    저는 글에서 언급된 이기준님의 동생 이기환입니다.
    저도 현재 딥러닝에 한계가 있다고 생각합니다. 현재 딥러닝은 정보처리 과정 중 일부분은 열려있지만 정보처리의 주제, 방향에서는 닫혀있습니다.
    저는 현재 딥러닝을 개선해서 더나은 지능 정보구조체를 만들수 있다고 생각합니다.
    RNN을 확장해서 신경망의 기억 능력을 향상시키고 신경망의 구성 자체를 신경망이 개선할 수 있게 하는 등 작은 단위에서 현재 딥러닝을 개선해 나가면 목표에 더 가까워질 것이라고 생각하고 있습니다.
    2 원 게시글이 삭제되었습니다. [새창] 2016-12-20 08:55:07 0 삭제
    이성이 생각한 것과 포유류뇌, 파충류뇌가 만들어내는 감각, 감정은 별개의 정보인데 이성에서 만든 생각을 지속하니 포유류뇌, 파충류뇌가 무작위로 감각, 감정을 만들어내다가 이성이 동의하는 감각, 감정을 몰아주는 방식으로 가중치를 주어서 그 결과가 상상한 것이 이루어진 것과 같은 감각, 감정이 드는 것 같습니다.
    1 원 게시글이 삭제되었습니다. [새창] 2016-12-19 22:39:10 0 삭제
    명상하는 방법으로 쉽호흡을 차분하게 관리하면서 한가지 상상을 계속하면 어느순간 그 상상이 현실인 것 같은 느낌이 듭니다.
    그것이 내 몸에 일부분에 대한 상상이면 내 몸이 내가 상상한대로 움직인 것 같고, 내 외부에 사건이면 그 사건이 벌어진 것 같습니다.
    이것은 머신러닝 분야의 강화학습과 같이 내 머리속에서 이성이 주제를 던지면 포유류뇌와 파충류뇌가 그 주제를 충족시키려고 박치기를 하는 것 같습니다.



    [1]

     
    단축키 운영진에게 바란다(삭제요청/제안) 운영게 게시판신청 자료창고 보류 개인정보취급방침 청소년보호정책 모바일홈