<a target="_blank" href="http://arstechnica.com/science/2014/08/ibm-researchers-make-a-chip-full-of-artificial-neurons/">http://arstechnica.com/science/2014/08/ibm-researchers-make-a-chip-full-of-artificial-neurons/</a> <div><img src="http://cdn.arstechnica.net/wp-content/uploads/2014/08/IBM_SyNAPSE_20140807_005-640x400.jpg" alt=""></div> <div><br></div> <div><img src="http://cdn.arstechnica.net/wp-content/uploads/2014/08/IBM_SyNAPSE_20140807_004-640x628.jpg" alt=""></div> <div><br></div> <div>기존 폰 노이만 구조 컴터랑 다른 두뇌랑 비슷하게 작동되는 실리콘 칩을 ibm이 개발했다고 합니다. </div> <div><br></div> <div>ㅋㅋㅋㅋ 4000개 코어가 들어가 있고 5.4 billion 트렌지스터가 올라가있다네요.</div> <div><br></div> <div>최신 gpu가 3000개 정도의 코어가 들어있는데 4천개!!</div> <div><br></div> <div>첨에 보고는 gpu랑 다른게 뭐임? 했는데</div> <div><br></div> <div>각각의 코어가 다른 코어랑 통신을 할 수 있다네요.</div> <div><br></div> <div>파워도 엄청 적게 먹고, pattern recognition 같은거에 최적화 되어 있어서</div> <div><br></div> <div>cctv가 단순히 영상을 서버로 보내는게 아니라 유닛 자체 내에서 pattern recognition을 돌릴 수 있답니다. </div> <div><br></div> <div>ㅋㅋㅋㅋㅋㅋㅋㅋㅋ </div> <div><br></div> <div><br></div> <div><br></div> <div>이 기사를 보고 제가 든 생각은</div> <div><br></div> <div>그면 전혀 다른 소프트웨어 개발 플랫폼이 필요할 텐데</div> <div><br></div> <div>CUDA 배우는 것만도 힘들었는데 </div> <div><br></div> <div>나중에 이거 배워야 돼?</div> <div><br></div> <div>CUDA나 OpenCL보다 더 복잡할꺼 아냐?</div> <div><br></div> <div>CUDA는 같은 연산을 존나 많은 gpu 코어에 돌려 준건데 </div> <div><br></div> <div>이건 그냥 스케일이 진짜 큰 MIMD나 MPMD 일건데 </div> <div><br></div> <div>데드락 상황은 어떻게 디버그 하지? 유닛 테스트는 어떻게? </div> <div><br></div> <div>이런 생각을 하다가 아직 상용화까지는 멀었으니 안심하고 기사를 넘깁니다. </div> <div><br></div> <div><br></div>
댓글 분란 또는 분쟁 때문에 전체 댓글이 블라인드 처리되었습니다.