모바일 오유 바로가기
http://m.todayhumor.co.kr
분류 게시판
베스트
  • 베스트오브베스트
  • 베스트
  • 오늘의베스트
  • 유머
  • 유머자료
  • 유머글
  • 이야기
  • 자유
  • 고민
  • 연애
  • 결혼생활
  • 좋은글
  • 자랑
  • 공포
  • 멘붕
  • 사이다
  • 군대
  • 밀리터리
  • 미스터리
  • 술한잔
  • 오늘있잖아요
  • 투표인증
  • 새해
  • 이슈
  • 시사
  • 시사아카이브
  • 사회면
  • 사건사고
  • 생활
  • 패션
  • 패션착샷
  • 아동패션착샷
  • 뷰티
  • 인테리어
  • DIY
  • 요리
  • 커피&차
  • 육아
  • 법률
  • 동물
  • 지식
  • 취업정보
  • 식물
  • 다이어트
  • 의료
  • 영어
  • 맛집
  • 추천사이트
  • 해외직구
  • 취미
  • 사진
  • 사진강좌
  • 카메라
  • 만화
  • 애니메이션
  • 포니
  • 자전거
  • 자동차
  • 여행
  • 바이크
  • 민물낚시
  • 바다낚시
  • 장난감
  • 그림판
  • 학술
  • 경제
  • 역사
  • 예술
  • 과학
  • 철학
  • 심리학
  • 방송연예
  • 연예
  • 음악
  • 음악찾기
  • 악기
  • 음향기기
  • 영화
  • 다큐멘터리
  • 국내드라마
  • 해외드라마
  • 예능
  • 팟케스트
  • 방송프로그램
  • 무한도전
  • 더지니어스
  • 개그콘서트
  • 런닝맨
  • 나가수
  • 디지털
  • 컴퓨터
  • 프로그래머
  • IT
  • 안티바이러스
  • 애플
  • 안드로이드
  • 스마트폰
  • 윈도우폰
  • 심비안
  • 스포츠
  • 스포츠
  • 축구
  • 야구
  • 농구
  • 바둑
  • 야구팀
  • 삼성
  • 두산
  • NC
  • 넥센
  • 한화
  • SK
  • 기아
  • 롯데
  • LG
  • KT
  • 메이저리그
  • 일본프로야구리그
  • 게임1
  • 플래시게임
  • 게임토론방
  • 엑스박스
  • 플레이스테이션
  • 닌텐도
  • 모바일게임
  • 게임2
  • 던전앤파이터
  • 마비노기
  • 마비노기영웅전
  • 하스스톤
  • 히어로즈오브더스톰
  • gta5
  • 디아블로
  • 디아블로2
  • 피파온라인2
  • 피파온라인3
  • 워크래프트
  • 월드오브워크래프트
  • 밀리언아서
  • 월드오브탱크
  • 블레이드앤소울
  • 검은사막
  • 스타크래프트
  • 스타크래프트2
  • 베틀필드3
  • 마인크래프트
  • 데이즈
  • 문명
  • 서든어택
  • 테라
  • 아이온
  • 심시티5
  • 프리스타일풋볼
  • 스페셜포스
  • 사이퍼즈
  • 도타2
  • 메이플스토리1
  • 메이플스토리2
  • 오버워치
  • 오버워치그룹모집
  • 포켓몬고
  • 파이널판타지14
  • 배틀그라운드
  • 기타
  • 종교
  • 단어장
  • 자료창고
  • 운영
  • 공지사항
  • 오유운영
  • 게시판신청
  • 보류
  • 임시게시판
  • 메르스
  • 세월호
  • 원전사고
  • 2016리오올림픽
  • 2018평창올림픽
  • 코로나19
  • 2020도쿄올림픽
  • 게시판찾기
  • 게시물ID : voca_9412
    작성자 : 행복가속도
    추천 : 0
    조회수 : 2921
    IP : 210.126.***.207
    댓글 : 0개
    등록시간 : 2017/12/26 00:32:35
    http://todayhumor.com/?voca_9412 모바일
    꼬마사전 으로 논문 공부용
    A Deep Learning Framework for Character Motion Synthesis and Editing
    Daniel Holden∗
    University of Edinburgh
    Jun Saito†
    Marza Animation Planet
    Taku Komura‡
    University of Edinburgh
    Figure 1: Our framework allows the animator to synthesize character movements automatically from given trajectories.
    Abstract
    We present a framework to synthesize character movements based
    on high level parameters, such that the produced movements re-
    spect the manifold of human motion, trained on a large motion cap-
    ture dataset. The learned motion manifold, which is represented by
    the hidden units of a convolutional autoencoder, represents motion
    data in sparse components which can be combined to produce a
    wide range of complex movements. To map from high level param-
    eters to the motion manifold, we stack a deep feedforward neural
    network on top of the trained autoencoder. This network is trained
    to produce realistic motion sequences from parameters such as a
    curve over the terrain that the character should follow, or a target
    location for punching and kicking. The feedforward control net-
    work and the motion manifold are trained independently, allowing
    the user to easily switch between feedforward networks according
    to the desired interface, without re-training the motion manifold.
    Once motion is generated it can be edited by performing optimiza-
    tion in the space of the motion manifold. This allows for imposing
    kinematic constraints, or transforming the style of the motion, while
    ensuring the edited motion remains natural. As a result, the system
    can produce smooth, high quality motion sequences without any
    manual pre-processing of the training data.
    Keywords: deep learning, convolutional neural networks, autoen-
    coder, human motion, character animation, manifold learning
    Concepts: •Computing methodologies → Motion capture;
    1 Introduction
    Data-driven motion synthesis allows animators to produce con-
    vincing character movements from high level parameters. Such
    approaches greatly help animation production as animators only
    ∗email:[email protected]

    email:[email protected]

    email:[email protected]
    Publication rights licensed to ACM. ACM acknowledges that this contribu-
    tion was authored or co-authored by an employee, contractor or affiliate of
    a national government. As such, the Government retains a nonexclusive,
    royalty-free right to publish or reproduce this article, or to allow others to
    do so, for Government purposes only.
    SIGGRAPH ’16 Technical Paper, July 24 - 28, 2016, Anaheim, CA,
    ISBN: 978-1-4503-4279-7/16/07
    DOI: http://dx.doi.org/10.1145/2897824.2925975
    need to provide high level instructions rather than low level details
    through keyframes. Various techniques that make use of large mo-
    tion capture datasets and machine learning to parameterize motion
    have been proposed in computer animation.
    Most data-driven approaches currently available require a signifi-
    cant amount of manual data preprocessing, including motion seg-
    mentation, alignment, and labeling. A mistake at any stage can
    easily result in a failure of the final animation. Such preprocess-
    ing is therefore usually carefully performed through a significant
    amount of human intervention, making sure the output movements
    appear smooth and natural. This makes full automation difficult
    and so often these systems require dedicated technical developers
    to maintain.
    In this paper, we propose a model of animation synthesis and edit-
    ing based on a deep learning framework, which can automatically
    learn an embedding of motion data in a non-linear manifold using a
    large set of human motion data with no manual data preprocessing
    or human intervention. We train a convolutional autoencoder on a
    large motion database such that it can reproduce the motion data
    given as input, as well as synthesize novel motion via interpola-
    tion. This unsupervised non-linear manifold learning process does
    not require any motion segmentation or alignment which makes the
    process significantly easier than previous approaches. On top of
    this autoencoder we stack another feedforward neural network that
    maps high level parameters to low level human motion, as repre-
    sented by the hidden units of the autoencoder. With this, users can
    easily produce realistic human motion sequences from intuitive in-
    puts such as a curve over some terrain that the character should fol-
    low, or the trajectory of the end effectors for punching and kicking.
    As the feedforward control network and the motion manifold are
    trained independently, users can easily swap and re-train the feed-
    forward network according to the desired interface. Our approach
    is also inherently parallel, which makes it very fast to compute and
    a good fit for mainstream animation packages.
    We also propose techniques to edit the motion data in the space
    of the motion manifold. The hidden units of the convolutional au-
    toencoder represent the motion in a sparse and continuous fashion,
    such that adjusting the data in this space preserves the naturalness
    and smoothness of the motion, while still allowing complex move-
    ments of the body to be reproduced. One demonstrative example of
    this editing is to combine the style of one motion with the timing
    of another by minimizing the difference in the Gram matrices of
    the hidden units of the synthesized motion and that of the reference

    이 게시물을 추천한 분들의 목록입니다.
    푸르딩딩:추천수 3이상 댓글은 배경색이 바뀝니다.
    (단,비공감수가 추천수의 1/3 초과시 해당없음)

    죄송합니다. 댓글 작성은 회원만 가능합니다.

    번호 제 목 이름 날짜 조회 추천
    9496
    빠진단어: 넌더리나다, 기겁하다,.. 석연하다, 애달프다 aiidyn 23/08/28 21:20 873 0
    9495
    빠진단어: 넌더리나다, 기겁하다, 질겁하다, 질리다, 희망하다 aiidyn 23/03/25 23:34 1179 0
    9492
    가까지 마! 창작글 울트라콤포져 23/03/01 11:45 996 1
    9491
    빠진단어 (감개무량하다) aiidyn 23/02/10 20:22 1262 0
    9490
    도화살 화정양 22/12/10 02:22 1784 0
    9489
    오늘 축구 [3] 은빛미리내 22/11/24 21:57 1263 0
    9488
    빠진단어(콤플렉스, 위안되다, 처연하다, 애달프다.) aiidyn 22/11/20 22:29 1299 0
    9487
    test CBUM 22/07/08 03:05 1242 0
    9486
    '주작'이 표준어였군요. [1] 만원잃은천사 21/12/22 23:31 1808 3
    9485
    제사에 대한. 차례에 대한 aiidyn 21/10/29 12:03 2112 0
    9482
    나를 내리치는 죽비(16) 임모탄김 21/09/22 01:23 1538 0
    9481
    나를 내리치는 죽비(15) 임모탄김 21/09/22 00:13 1477 0
    9480
    질문있습니다 [4] 창작글펌글베스트금지베오베금지외부펌금지 임혜정 21/09/03 19:14 1470 0
    9476
    아침해가 떠오를때 바다에 비치는 태양빛을 뭐라고 부르나요? [3] 머리에혹났어 21/07/11 09:16 5804 3
    9475
    삼국지나 초한지에서 견고한 상대진영을 안전하게 패망시키는 크게 두가지방법 aiidyn 21/04/28 09:09 1691 0
    9474
    셜록홈즈의 재능 aiidyn 21/04/20 10:19 1647 0
    9473
    현실성과 개연성 aiidyn 20/11/26 10:12 1861 0
    9472
    공감편차 aiidyn 20/11/18 16:36 1613 1
    9470
    갑질과 을질 aiidyn 20/10/19 11:03 1883 0
    9465
    실수로 수고하지는 않는다. [1] aiidyn 20/07/14 16:55 1886 0
    9464
    메모/잡생각- 민주주의란... [1] 임모탄김 20/05/22 09:07 1691 0
    9463
    사소한 일에 목숨걸게 되는 과정 aiidyn 20/04/22 18:04 2043 0
    9462
    수고하세요. 라는 말의 의미 [2] aiidyn 20/04/20 13:44 2379 2
    9460
    기운이 없을때 좋은 글귀 [2] 베스트금지베오베금지본인삭제금지외부펌금지 소심합니다 20/01/31 02:06 2157 0
    9459
    힘든하루였다.. 베스트금지베오베금지본인삭제금지외부펌금지 소심합니다 20/01/27 09:26 1819 0
    9457
    욕, 'dog새끼'의 정확한 의미.jpg 아이사타 19/12/13 14:48 2201 0
    9456
    test 양궁 19/11/17 04:26 2073 0
    9450
    기준 [2] 김마니 19/09/11 03:11 2192 0
    9447
    ㅇㅇ 슷블구이 19/05/17 02:03 2450 0
    9446
    [질문]김현 '행복한 책읽기'중에서 BadTaste 19/05/11 10:42 2153 0
    [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [다음10개▶]
    단축키 운영진에게 바란다(삭제요청/제안) 운영게 게시판신청 자료창고 보류 개인정보취급방침 청소년보호정책 모바일홈