도전2022

패턴인식 및 기계학습 겨울학교 본문

작업/work2014

패턴인식 및 기계학습 겨울학교

hotdigi 2014. 1. 28. 15:56
한국정보과학회 인공지능소사이어티
패턴인식 및 기계학습 겨울학교
2014년 2월 5일(수)-7일(금), 연세대학교
초대의 글 프로그램 등록 오시는 길


▶ 일시:  2014년 2월 5일(수) - 7일(금)
▶ 장소:  연세대학교 제3공학관 지하 1층 C040 (오시는 길)
▶ 주관:  연세대학교
▶ 주최:  한국정보과학회 인공지능소사이어티
▲ 맨 위로



 초대의 글


한국정보과학회 컴퓨터지능 소사이어티에서 2014년 2월 5일-7일 3일에 걸쳐 "패턴인식 및 기계학습 겨울학교"를 개최하게 되었습니다. 2013년 8월에 "제 1회 패턴인식 및 기계학습 여름학교"가 매우 성황리에 개최되었습니다. 정보기술의 발전과 더불어 도처에서 쏟아져 나오는 데이터를 효과적으로 처리하여 분석하고자 하는 요구가 "빅 데이터 처리"라는 이름으로 크게 대두되고, 다양한 분야에서 패턴인식 및 기계학습 이론이 요구되어 한국정보과학회 인공지능소사이어티에서 "제 3회 패턴인식 및 기계학습에 대한 겨울학교"를 개최하게 되었습니다. 국내외적으로 이 분야에서 활발하게 활동하시는 열 두 분의 연사를 모시고 알찬 강의를 준비해 보았습니다. 겨울학교를 통해서 보다 더 깊은 지식을 습득하여 각자의 분야에서 유용하게 활용할 수 있는 기회의 장이 되었으면 합니다. 많은 분들이 겨울학교에 참가하여 의미 있는 시간이 될 수 있기를 기대합니다.

2013년 12월 30일
한국정보과학회 인공지능소사이어티 회장 변혜란



     ▶ 조직위원장: 변혜란 교수(연세대학교)
     ▶ 프로그램위원장: 최승진 교수(POSTECH)
     ▶ 프로그램위원: 장병탁 교수(서울대학교), 김선주 교수(연세대학교), 곽수영 교수(한밭대학교)
▲ 맨 위로



 프로그램


5일(수) 6일(목) 7일(금)
09:00-10:40 Overview of machine learning
장병탁 교수, 서울대
Conditional random fields
양희덕 교수, 조선대
Reinforcement learning
김기응 교수, KAIST
11:00-12:40 Principles and applications of local features
오일석 교수, 전북대
Recursive Bayesian estimation: Applications in visual tracking
한보형 교수, POSTECH
Latent variable models: EM and Bayesian
최승진 교수, POSTECH
12:40-14:00 점심시간
14:00-15:40 Supervised learning
노영균 교수, KAIST
Manifold learning
최희열 박사, 삼성종합기술원
Statistical inference with graphical models
최재식 교수, UNIST
16:00-17:40 Semi-supervised learning
신현정 교수, 아주대
Random forest
고병철 교수, 계명대
Deep learning
김인중 교수, 한동대

▲ 맨 위로


▶  Overview of machine learning

강사
장병탁 교수, 서울대학교

내용
본 튜토리얼의 목적은 크게 세가지이다. 첫째, 기계학습의 기본 원리와 역사 및 방법론을 살펴봄으로써 기계학습 기술에 대한 폭 넓은 시각을 제공한다. 둘째, 다양한 기계학습 모델(51개)의 구조와 특성을 비교 분석함으로써 문제에 적합한 학습 알고리즘을 선별할 수 있는 가이드라인을 제시한다. 셋째, 최근의 기계학습 이슈들을 논의함으로써 새로운 연구 주제와 응용에 대한 아이디어를 발굴하는 기반을 마련한다. 분석할 51개의 기계학습 모델을 감독학습, 무감독학습, 순차학습의 순으로 열거하면 다음과 같다. i) 감독학습: 퍼셉트론, 신경망(MLP), RBF, CasCorr, TDNN, SRN, kNN, SVM, 커널머신, 가우시안프로세스, 결정트리, 뉴럴트리, 랜덤포리스트, AdaBoost, Lasso, ii) 무감독학습: K-평균 군집화, 계층군집화, 베이지안망, 나이브베이즈, 잠재변수모델 (LVM), GMM, MOE, MRF, 볼쯔만머신, 하이퍼넷, SOM, ART, SOLL, PCA, ICA, SFA, MDS, Isomap, LLE, 비모수베이지안모델(BNP), LDA, HDP, 컨볼류션신경망(CNN), HTM, 심층신경망(DNN), SPN, 심층하이퍼넷, iii) 순차학습: HMM, CRF, MDP(강화학습), TD, Q러닝, 칼만필터, 파티클필터, 유전자프로그래밍, 동적베이지안망.

약력
1982-1988: 서울대학교 컴퓨터공학과 학사 및 석사
1988-1992: Bonn 대학교 이학박사(인공지능, 신경망, 기계학습)
1992-1995: 독일국립정보기술연구소(GMD, 현 프라운호퍼연구소)
1997-현재: 서울대학교 컴퓨터공학부 교수, 인지과학 및 뇌과학 협동과정 겸임.
현 서울대 인지과학연구소 소장 및 바이오지능기술연구센터 센터장.
MIT CSAIL & Brain and Cognitive Science (2003-2004)
Bernstein Center for Computational Neuroscience Berlin (2006)
삼성종합기술연구원 Computing & Intelligence Lab (2007-2008)
BMBF Excellence Centers in Cognitive Technical Systems (CoTeSys, Munich) & Cognitive Interaction Technology (CITEC, Bielefeld) 방문연구.
△ 프로그램으로    ▲ 맨 위로

▶  Principles and applications of local features

강사
오일석 교수, 전북대학교

내용
이 강좌는 모라벡와 해리스의 아이디어로부터 시작된 지역 특징에 대해 설명한다. 먼저 이동과 회전에 불변한 특징으로서 해리스 코너를 소개한다. 스케일 불변을 달성하기 위해 고안된 스케일 공간 이론을 공부한 후, 이 이론의 토대 위에서 창안된 해리스 라플라스 특징과 SIFT 특징에 대해 자세히 공부한다. 빠른 매칭에 사용되는 kd 트리와 위치의존 해싱도 다룬다. SIFT 오픈소스를 활용하는 방법을 공부한 후, 여러 가지 응용 방안에 대해 생각해 본다. SIFT와 다른 계열로 구분되는 모폴로지 기반 지역 특징에 대한 소개도 덧붙인다.

약력
1992.9-현재: 전북대학교 컴퓨터공학부 교수
2005.1-2006.12: 한국정보과학회 컴퓨터비전 및 패턴인식연구회 운영위원장
2004.1-2004.12: 한국정보과학회 논문지(SA) 편집위원장
2006.9-2007.12: 한국콘텐츠학회 논문지 편집위원장
2011.2: 제5회 컴퓨터비전및패턴인식 겨울학교 조직위원장
저서: 패턴인식(교보문고, 2008), C프로그래밍과 스타일링(교보문고, 2009), 컴퓨터스토리(교보문고, 2011), 컴퓨터 비전(한빛미디어, 2014년5월경 출간 예정)

△ 프로그램으로    ▲ 맨 위로

▶  Supervised learning

강사
노영균 교수, KAIST

내용
In this lecture, we aim at understanding the basic notions of the supervised learning, especially, using classification problems. In analyzing real datasets, we often meet the situation that simple conventional algorithms perform better than the state-of-the-art complex algorithms. Therefore, a guidance is necessary to the practitioners to the selection process of a proper algorithm based on a theoretical study. We focus on this problem through the relationship and the comparative study between classifiers, which will give a new intuition which particular classifiers will perform better in different regimes. This introductory lecture will cover the issues on data representation, inductive bias, hypothesis space, and generalization ability as well as the comparative study of generative and discriminative models.

약력
2011.8: 서울대학교 인지과학 협동과정 컴퓨터공학 박사
2007.8-2012.7: 펜실베니아 대학 전자시스템공학과 방문연구원
2011.9-2013.2: 서울대학교 기계항공공학부 박사후 연구원
2013.4-현재: 카이스트 전산학과 연구교수

△ 프로그램으로    ▲ 맨 위로

▶  Semi-supervised learning

강사
신현정 교수, 아주대학교

내용
Traditional machine learning algorithms can be categorized into two paradigms: supervised learning (uses a set of labeled data consisting of 'attributes-label' pairs) and unsupervised learning (uses unlabeled data). In many real applications, there is a large supply of unlabeled data, and we can collect them with only a little effort in general. However, we may not be able to obtain enough labeled data since it is often costly, difficult, or time consuming to generate the labels for data. Recently, many machine learning researchers have found that unlabeled data, when used in conjunction with a small amount of labeled data, can produce considerable improvement in learning accuracy. And it is "paradigmed" as Semi-Supervised Learning (SSL). SSL exploits the knowledge of the input structure from unlabeled data and at the same time utilizes the label information provided by labeled data. In this talk, we will learn basics of SSL, and then explore the state-of-the art algorithms to raise comprehension of future research direction of SSL.

약력
2006-present: Dept. of Industrial Engineering, Ajou University [Associate Professor]
2006- 2006: Seoul National University, College of Medicine [Research Professor]
2005-2006: Max-Planck-Institute, Friedrich-Miescher Laboratory [Senior Researcher]
2004-2005: Max-Planck-Institute for Biological Cybernetics [Researcher]
2000-2004: Seoul National University [Ph.D in Industrial Engineering]

△ 프로그램으로    ▲ 맨 위로

▶  Conditional random fields

강사
양희덕 교수, 조선대학교

내용
정보검색, 컴퓨터비젼, 음성인식, 로보틱스, 뇌과학 등의 연구에 있어서 기계학습은 아주 중요한 역할을 하고 있다. 그 중에서도 확률 그래프 모델 (Probabilistic Graphical Model) 계열의 기술은 많은 장점을 갖고 있어 다양한 분야에 적용되고 있다. 이러한 확률 그래프 모델 중에서 시계열 데이터 처리 및 영상 분할 등에 Conditional Random Field (CRF) 또는 이의 변형 모델을 이용한 연구가 최근에 활발히 이루어지고 있다. CRF는 특징들 간 독립성을 가정하지 않으나 레이블 편향 문제가 (label bias problem)가 발생했던 MEMM (Maximum Entropy Markov Model)의 단점을 해결한 모델이다. 본 강의에서는 최근 많이 사용되고 있는 CRF 모델 계열의 장단점 및 차이점을 HMM, MEMM 등과 비교 설명하고 CRF 모델 계열의 다양한 응용 분야를 소개하기로 한다.

약력
2008년 2월: 고려대학교 컴퓨터학과 박사
2011-2012 : Institute of Bioengineering, EPFL, Switzerland, 방문교수
2008년 9월 ~ 현재: 조선대학교 컴퓨터공학부 조교수

△ 프로그램으로    ▲ 맨 위로

▶  Recursive Bayesian estimation: Applications in visual tracking

강사
한보형 교수, POSTECH

내용
온라인으로 주어지는 시계열 데이터를 이용하여 관찰되지 않는 다양한 정보를 추정하는 방법론으로 빈번히 사용되고 있는 Sequential Bayesian Filtering의 종류와 특징, 그리고 한계 및 응용에 대하여 논의한다. 가장 간단한 모델에 기반한 Kalman Filter를 비롯하여 이를 확장한 Extended Kalman Filter, Unscented Kalman Filter 등에 대해 살펴보고, 보다 일반적이고 복잡한 모델에 대하여 Monte Carlo 방법으로 추정하는 Particle Filter에 대해 심도있게 다룬다. 특히 컴퓨터 비전의 물체 추적 문제에 Recursive Bayesian Estimation이 어떻게 사용되는지 중점적으로 다룬다. 본 강좌의 원활한 수강을 위해서는 학부 수준의 선형대수 및 확률/통계 지식이 필 요하고, Bayesian Statistics나 Graphical Model에 관한 기본 지식이 유용할 것이다.

약력
2010 ~ Present : Assistant Professor, Dept. of Computer Science and Engineering, POSTECH
2010 : Assistant Professor, School of Electrical and Computer Engineering, UNIST
2008 ~ 2009 : Research Staff, Mobileye Vision Technologies, Princeton, NJ, USA
2006 ~ 2007 : Research Staff, Samsung R&D, Irvine, CA
2005 : Ph.D. in Computer Science, University of Maryland at College Park
2000 : M.S. in Computer Engineering, Seoul National University
1997 : B.S. in Computer Engineering, Seoul National University


▶  Manifold learning

강사
최희열 박사, 삼성종합기술원

내용
Manifold learning 은 고차원의 데이타 포인트들을 저차원의 공간으로 매핑하는 것을 말하며, 기계학습과 데이타 분석 및 데이타 시각화에 있어서 중요한 과정으로 사용된다. 본 강의에서는 우선 manifold learning 을 소개하고, 관련된 배경지식을 제공한다. 그리고, 선형/비선형의 많은 알고리즘들을 소개하고 특징별로 구분하여, 그 대표적인 알고리즘들을 자세히 다룬다. 또한, manifold learning 을 kernel machine 등의 다른 관점으로 해석하여 다른 알고리즘들과의 관계를 살펴보고, 최근 패턴인식에서 각광받는 deep neural network 과의 관계도 살펴본다. 끝으로 최근의 연구 방향을 소개한다.

약력
2011.7-현재: 전문연구원, Intelligent Computing Lab, 삼성종합기술원
2010.8-2011.4: PostDoc in Psychological and Brain Science, Indiana University

△ 프로그램으로    ▲ 맨 위로


▶  Random forest

강사
고병철 교수, 계명대학교

내용
최근 패턴 분류문제에서 한 개의 강한 분류기(strong classifier)를 사용하는 대신에 다수의 약한 분류기(weak classifier)를 결합하여 사용하는 앙상블 분류기에 대한 연구가 활발히 이루어지고 있다. 이러한 앙상블 분류기는 ‘사람검출’, ‘객체검출’ 등의ㅣ off-line learning기반 분류 문제뿐만 아니라 ‘객체 추적’ 등의 online-learning 응용분야에도 다양하게 적용되고 있다. 이러한 앙상블 분류기의 특징은 랜덤 샘플링을 통해 일반화 율을 높이고, 학습 및 테스트를 위한 메모리를 적게 사용하며, 단순한 함수를 사용함으로써 학습 및 처리 속도가 빠르다는 장점이 있다. 또한 하나의 분류기에서 발생된 오류를 다른 분류기가 보완해주는 장점도 있다. 하지만 다수의 분류기를 동시에 동작시켜야 함으로 분류속도가 저하되고 경우에 따라서는 over-fitting이 발생할 수 있는 문제도 있다. 본 강의에서는 최근 많이 사용되고 있는 앙상블 분류기 중에서 Random Forest, Hough Forest, Random Ferns을 소개하고 각 알고리즘의 장단점 및 차이점을 설명하고 더불어 각 알고리즘의 응용 분야를 소개하기로 한다.

약력
2004년 2월: 연세대학교 컴퓨터과학과 박사
2004년 3월 ~ 2005. 8월: 삼성전자 통신연구소 책임 연구원
2005. 8월 ~ 현재: 계명대학교 컴퓨터공학과 부교수

△ 프로그램으로    ▲ 맨 위로


▶  Reinforcement learning

강사
김기응 교수, KAIST

내용
본 강의는 기계학습의 분야인 강화학습(reinforcement learning)을 다룬다. 비교적 널리 알려져있는 패턴인식과 같은 문제들과 달리, 강화학습에서는 기계가 지능적 으로 판단하고 행동하는 문제들을 다룬다. 강화학습의 중요 모델인 마코프 의사결정과정(Markov decision process; MDP)과 부분관찰 마코프 의사결정(Partially observable Markov decision process; POMDP)에 대하여 논의하고, 이 모델들과 관련된 기본적인 알고리즘을 배운다. 그 다음 베이지안 강화학습(Bayesian reinforcement learning)을 포함하여 강화 학습의 최신 이슈들을 배우고, 코드 데모를 통해 강화 학습 알고리즘의 동작 원리를 이해한다.

약력
2001.6: Brown University Computer Science 박사
2001.9-2004.2: 삼성SDS 책임연구원
2004.2-2006.7: 삼성종합기술원 전문연구원
2006-현재: KAIST 전산학과 부교수

△ 프로그램으로    ▲ 맨 위로


▶  Latent variable models: EM and Bayesian

강사
최승진 교수, POSTECH

내용
Latent variable models refer to statistical models that aim to explain observed variables in terms of hidden variables (that are not directly observed). In this lecture I will mainly describe how latent variable models are used for unsupervised learning which involves finding hidden structure in unlabeled data. I begin with mixture of Gaussians (MoG) that is a popular probabilistic method for clustering. Then, I explain maximum likelihood factor analysis and principal component analysis (PCA) that are popular dimensionality reduction methods. Mixture of factor analyzers is also illustrated as a principled method for carrying out clustering and dimensionality reduction simultaneously. Expectation maximization (EM) optimization method is emphasized as a big hammer to learn parameters in these latent variable models. Finally, if time is permitted, I will present how Bayesian treatments are made to these models and introduce variational inference technique to learn those models. This lecture will provide a good foundation which allows you to jump into the world of probabilistic models for machine learning.

약력
February 2001 - present: Professor of Computer Science in POSTECH
August 1997 - February 2001: Assistant Professor of EE in Chungbuk National University
January-August 1997: Frontier Researcher in RIKEN, Japan
August 1996: Ph.D. in EE, University of Notre Dame, USA

△ 프로그램으로    ▲ 맨 위로


▶  Statistical inference with graphical models

강사
최재식 교수, UNIST

내용
본 강의는 기계학습의 분야인 확률 그래프 모델에서의 통계적 추론을 다룬다. 최근 고성능 컴퓨터의 발전은 다수의 변수들의 상호관계를 표현하고, 변화를 예측하는 것을 가능하게 만들었다. 확률 그래프 모델은 각 변수들을 그래프의 노드로 변수들 사이의 관계를 선 및 요소(factor)로 표현하여 많은 변수들의 다양한 관계를 표현하여 관심있는 조건부 확률값(conditional probabilities)을 효율적으로 계산하는 것을 용이하게 해준다. 본 강의에서는 확률 그래프 모델을 표현하는 기본적인 표현방법인 베이지안 네트워크와 마코프 네트워크에서 결합 확률 및 조건부 확률을 표현하는 법을 다루고, 이런 모델에서 한계 확률을 구하는 변수소거(variable elimination), 신뢰전파(belief propagation) 및 변분추론(variational inference)등 확률적 추론 방법에 대해서 다룬다. 시간이 허락되면, 대규모의 변수를 표현할 수 있는 하이퍼그래프에서의 모델(확률 관계 그래프 및 마코프 논리 네트워크)을 소개하고, 여기서 효율적인 추론이 가능한 들어올린 추론 방법(lifted inference)들을 소개한다.

약력
2013.7 -현재: 울산과학기술대학교(UNIST), 전기컴퓨터공학부, 조교수.
2013.1 - 2013.7: 로렌스 버클리 연구소, 박사후 펠로우.
2012.5 - 2013.1: 일리노이 주립대, 전산학과, 박사후 연구원
2012.5: 일리노이 주립대 어바나 샴페인, 전산학과, 박사

△ 프로그램으로    ▲ 맨 위로


▶  Deep learning

강사
김인중 교수, 한동대학교

내용
깊은 신경망(deep neural network)은 최근 다양한 분야에서 기존의 방법들보다 우수한 성능을 보이고 있다. 깊은 신경망은 많은 수의 계층으로 구성된 신경망이다. 깊은 신경망은 복잡한 함수들을 표현하는데 효과적이다. 또한, 특징 추출, 추상화 및 인식을 하나의 신경망으로 표현하고, 통일된 기준에 의해 학습하기 때문에 기존 인식 방법에 비해 더 높은 성능을 얻을 수 있다. 과거에는 학습의 어려움으로 인해 깊은 신경망을 활용하지 못하였으나, 최근 현실적인 학습 방법들이 발견되면서 깊은 신경망을 현실적으로 활용할 수 있는 가능성이 열리기 시작했다. 그 후 깊은 신경망은 문자 인식 및 물체 인식 등 다수의 패턴인식분야 컨테스트에서 높은 성능을 보이며 크게 주목 받고 있다. 본 강좌에서는 깊은 학습에 대한 소개와 최근 활발히 이루어지고 있는 deep learning의 연구 동향 및 그 성과에 대하여 소개한다.

약력
1990.3. ~ 1994.2. – B.S. in Computer Science at KAIST
1994.3 ~ 1995.8 – M.S. in Computer Science at KAIST
1995.9 ~ 2001.2 - Ph.D. in Computer Science at KAIST
2001.2 ~ 2006.2 - ㈜인지소프트 책임연구원
2006 ~ 현재 - 한동대학교 전산전자공학부 부교수
2012. 1 ~ 2013.1 – Visiting scholar at U.C. Irvine

△ 프로그램으로    ▲ 맨 위로

등록



등록비(\) 일반 학생
사전등록
350,000 250,000
현장등록 400,000 300,000
    ※ (정보과학회 회원/비회원 등록비 동일)


참가등록 바로가기



  • 겨울학교 등록 후 참가 시 "겨울학교 참가확인증"을 발부해 드립니다.

  • 겨울학교 참가확인증이 필요하신 분은 2월 7일 이후,
     아래의 주소로 성함과 소속을 적어서 메일을 보내주시기 바랍니다.
     메일 주소 : kalledbig@yonsei.ac.kr
  • 등록하신 분들께는 2월 5~7일 중식 제공됩니다.

  • 당일 주차할인권 구입 가능합니다.

  • 강의자료는 등록자에 한하여 아래의 링크에서 다운로드 받으실 수 있습니다.

  • 강의자료는 사전등록 기간 이후에 업로드 될 예정입니다.


    강의자료 다운로드(준비중 입니다.)

  • ▲ 맨 위로



    오시는 길


    연세대학교 제3공학관 지하 1층 C040 (자세히 보기)
    ※ 주차장은 공학원 지하에 있습니다. (아래 그림에 화살표로 표시)


    ▲ 맨 위로




    '작업 > work2014' 카테고리의 다른 글

    디자인들  (0) 2014.01.30
    77GHz Radar 찾기  (0) 2014.01.30
    DTV Shredder  (0) 2014.01.24
    QtGStreamer on Windows  (0) 2014.01.22
    YouTube View Example  (0) 2014.01.17