[논문요약]Patterns of Involvement in Television Fiction-Liebes와 Katz (1986)
·
Media에 대한 이용자론 논문
* 해석 과정에서 일부 오류가 있을 수 있으니 원 논문을 참고하여 확인하시기 바랍니다. 논문 개요 *Patterns of Involvement in Television Fiction*은 Tamar Liebes와 Elihu Katz가 수행한 연구로, 이스라엘과 미국의 다양한 민족 집단이 드라마 *댈러스(Dallas)*를 어떻게 다르게 받아들이고 해석하는지를 비교 분석한 논문입니다. 연구는 시청자들이 동일한 텔레비전 프로그램을 시청할 때, 그들이 속한 문화적 배경에 따라 프로그램을 각기 다르게 해석하고 반응하는 방식을 탐구했습니다. 논문 요약 이 논문은 드라마 *댈러스*를 시청한 이스라엘과 미국의 다양한 민족 집단을 대상으로, 그들의 참여 방식과 반응을 비교 분석한 연구입니다. 연구는 각 민족 집단이 드라마..
Chapter 2. 지도학습(Supervised learning): 부스팅(Boosting)
·
데이터분석
참고 문헌:1. 서강대 AI MBA 데이터마이닝 강의교재 (2023)2. Müller, A. C., & Guido, S. (2016). *Introduction to Machine Learning with Python*. 1st Edition. O’Reilly Media, Inc., Sebastopol, CA. ISBN: 978-1449369415. 부스팅(Boosting)은 여러 약한 학습자(weak learner)를 순차적으로 결합하여 강력한 학습 모델을 만드는 앙상블 기법이다. 각 학습자는 이전 모델이 잘못 예측한 데이터를 보완하도록 학습되며, 점진적으로 성능을 향상시킨다. 대표적인 부스팅 알고리즘에는 AdaBoost, Gradient Boosting, XGBoost, LightGBM, CatBoo..
Chapter 2. 지도학습(Supervised learning): 랜덤포레스트(Random Forest)
·
데이터분석
참고 문헌:1. 서강대 AI MBA 데이터마이닝 강의교재 (2023)2. Müller, A. C., & Guido, S. (2016). *Introduction to Machine Learning with Python*. 1st Edition. O’Reilly Media, Inc., Sebastopol, CA. ISBN: 978-1449369415. 랜덤 포레스트(Random Forest)는 여러 개의 결정 트리(Decision Tree)를 모아서 더 좋은 모델을 만드는 앙상블 기법이다. 결정 트리 하나만으로는 과적합(overfitting) 문제가 생기기 쉬운데, 랜덤 포레스트는 그 문제를 해결할 수 있다. 여러 트리를 사용해서 데이터를 학습하고 예측함으로써, 과적합을 방지하면서 성능을 높일 수 있는 방..
Chapter 2. 지도학습(Supervised learning): 의사결정나무(Decision Trees)
·
데이터분석
참고 문헌:1. 서강대 AI MBA 데이터마이닝 강의교재 (2023)2. Müller, A. C., & Guido, S. (2016). *Introduction to Machine Learning with Python*. 1st Edition. O’Reilly Media, Inc., Sebastopol, CA. ISBN: 978-1449369415. 의사결정나무는 분류/회귀에서 널리 사용되는 모델이다. 특히, 계층적으로 만약/그렇지 않으면의 질문을 학습하며 의사결정을 이끈다. 다음은 의사결정나무를 잘 보여주는 그림이다. 어릴 적 주로 했던 스무고개 퀴즈를 생각하면 쉽게 이해할 수 있을 것이다.의사결정나무 모델 구축의사결정나무 학습은 올바른 답에 가장 빨리 도달할 수 있는 일련의 if/else 질문들을 학..
Chapter 2. 지도학습(Supervised learning): Naive Bayes classifier
·
데이터분석
참고 문헌:1. 서강대 AI MBA 데이터마이닝 강의교재 (2023)2. Müller, A. C., & Guido, S. (2016). *Introduction to Machine Learning with Python*. 1st Edition. O’Reilly Media, Inc., Sebastopol, CA. ISBN: 978-1449369415. Naive Bayes classifier 는 선형 모델(linear model)과 매우 비슷한 성격의 분류기이며, 로지스틱 회귀분석과 linear SVC보다 학습이 빠르다는 장점을 갖고 있지만, 빠른 만큼 일반화 성능은 떨어진다. Naive Bayes classifier가 학습이 빠른 이유는 각각의 파라미터를 개별적으로 학습하고, 각각의 특성(featu..
Chapter 2. 지도학습(Supervised learning): SVM
·
데이터분석
참고 문헌:1. 서강대 AI MBA 데이터마이닝 강의교재 (2023)2. Müller, A. C., & Guido, S. (2016). *Introduction to Machine Learning with Python*. 1st Edition. O’Reilly Media, Inc., Sebastopol, CA. ISBN: 978-1449369415. SVM(Support Vector Machine)은 분류와 회귀 문제를 해결하는 지도 학습 알고리즘이다. 주로 이진 분류 문제에서 효과적이며, 고차원 공간에서 데이터를 선형적으로 분리하는 초평면을 사용한다. 데이터가 복잡하거나 선형적으로 분리되지 않을 경우 커널 트릭을 통해 고차원 공간으로 사상하여 초평면으로 분류가 가능하게 한다. 이를 통해 SVM은 다양한..
VirtualJin
'분류 전체보기' 카테고리의 글 목록 (24 Page)