Machine Learning 용어집
머신러닝 관련 용어를 정리합니다. 머신러닝 원문 용어의 한글 맵핑과 관련 정보를 정리합니다.
A
- Accuracy: 정확도
- 분류 성능 모델 성능 지표
- 다중 클래스 분류에서 정확도
- $\frac{#True Positive}{#Total Examples}$
- 이진 분류 정확도
- $\frac{#True Positive + #True Negative}{#Total Examples}$
- Activation function: 활성화 함수
- Adam: Adaptive Moment Estimation
- 과거의 미분값의 방향과 분산을 계속 가중평균 내에서 효과적인 업데이트 방향과 크기 선택
- AdamGrad
- 미분값의 크기를 추적하고 학습률을 데이터에 적응
- Affine transformation: 어파인 변환
- Algorithm: 알고리즘
- 입력을 출력으로 변환하기 위해 수행되는 명령의 순서
- Anomaly Detection: 이상 탐지
- Area under the curve(AUC): 곡선 아래 면적
- 관련 용어: ROC 곡선
- Artificial Neural Network: 인공신경망
- Association Rule Learning: 연관 규칙 학습
- Autoencoder: 오토인코더
- Average pooling: 평균 풀링
B
- backpropagation: 오차역전파법
- Backpropagation Through Time: 시간 기반 오차역전파법
- Backward propagation: 역전파
- Batch: 배치
- Batch Learning: 배치 학습
- Batch Nomalization: 배치 정규화
- 학습 속도 향상
- 과대적홥 방지
- 초깃값에 크게 의존하지 않음
- Bayesian: 베이지언
- 불확실성을 정량화하는 것을 목표로 하는 통계확 관점
- 베이지언은 확률을 빈도의 개념이 아니라 믿음의 정도로 해석하는 관점
- Bias: 편향
- Bidirected RNN: 양방향 순환 신경망
- binary classification: 이진 분류
- 상호 배타적인 두 클래스 중 하나를 출력하는 분류
- 예: ‘스팸’ / ‘스팸 아님’
- bilinear interpolation: 이중선형 보간
- Binomial Distribution: 이항분포
- 이항 분포는 연속된 n번의 독립적 시행에서 각 시행이 확률 p를 가질 때의 이산 확률 분포
- 이러한 시행은 베르누이 시행이라고 불리기도 함
- Binomial Logistic Regression: 이항 로지스틱 회귀
C
- category: 범주
- Categorical data: 범주형 데이터
- 가능한 값의 불연속 집합을 갖는 특성
- 관련 용어: Numerical data(수치 데이터)
- Central Limit Theorem: 중심 극한의 원리
- 표본들의 평균을 구할 때, 극단적인 값을이 서로 상쇄되어 평균값으로 모이는 경향
- Centroid: 중심(센트로이드)
- Chain rule: 연쇄법칙
- Chi-sqare: 카이제곱
- Chi-sqare Feature Selection: 카이제곱 특성 선택법
- Classification: 분류
- Classification threshold: 분류 임계값
- 긍정과 부정을 결정하는 모델의 예측 점수의 스칼라 기준 값
- Closed-form Solution: 닫힌 형태의 해
- Clustering: 군집
- CNN: 합성곱 신경망
- Coefficient: 계수
- Collaborative filtering: 협업 필터링
- 여러 사람의 관심분야를 기반으로 특정인의 관심 분야 예측
- 추천에 자주 사용
- Computational Complexity: 게산 복잡도
- Corpus: 말뭉치
- Confidence Interval
- (통계)신뢰구간
- 신뢰 수준의 확률로 모평균을 포함하는 구간
- (통계)신뢰구간
- Confidence Level
- (통계)신뢰수준
- 어떤 모수가 신뢰 구간에 포함될 확률
- 동일한 모집단에서 반복해서 표본을 추출할 경우 모집단 모수를 포함할 구간의 비율
- (통계)신뢰수준
- Confuse Matrix: 혼동 행렬
- 학습된 모델이 예측한 예측 범주와 데이터의 실제 분류 범주의 빈도를 교차표 형태로 정리한 행렬
- 분류 정확도 등 분류 학습 모델 결과 평가에 사용
- 분류 문제에서 관심이 있는 범주를 긍정(Positive), 그 외 범주를 부정(Nagative)라고 지정
- 범주의 종류
- True Positive: 참 긍정 -> 긍정을 바르게 예측
- True Negative: 참 부정 -> 부정을 바르게 예측
- False Positive: 거짓 긍정 -> 긍정을 잘못 예측
- False Negative: 거짓 부정 -> 부정을 잘못 예측
- Continuous feature: 연속 특성
- 부동 소수점 타입의 특성
- Continuous Probability Distribution: 연속 확률 분포
- Continuous Random Variable: 연속 확률 변수
- 확률변수가 취할 수 있는 값이 일정한 구간내의 실수로서 그 수가 무한한 확률변수
- 체중, 온도, 키
- 대표 사례: 정규분포
- Convergence: 수렴
- Convex: 볼록
- Convex function: 볼록 함수
- Convolution: 컨볼루션
- Convolutional layer: 컨볼루션 레이어
- Correllation Coefficient: 상관 계수
- Cosine Similarity: 코사인 유사도
- 두 벡터의 사이의 각도를 -1에서 1로 나타내는 척도
- 1이면 크고 -1이면 작다
- Cost: 비용
- Loss(손실)과 동의어
- Cost Function: 비용 함수
- Curse of Dimensionality: 차원의 저주
- Cross Entropy: 교차 엔트로피
- Cross Validation: 교차 검증
- Cross Validation Error: 교차 검증 오차
- Cumulative Reward: 누적 보상
D
- Data augmentation 데이터 증식
- Data Mining: 데이터 마아닝
- 머신러닝을 적용하여 대용량 데이러를 분석하여 숨겨진 패턴을 찾는 것
- Data Snooping Bias: 데이터 스누핑 편향
- 테스트 데이터가 유출되어 편향을 일으키는
- Dataset: 데이터셋
- 사례를 모은 것
- Decision boundary: 결정 경계
- 클래스 사이의 구분 선
- Decision Function: 결정 함수
- 유사어: Distrimination Function(판별 함수)
- 샘플 공간(표본 공간)에서 결정 영역(Decision Region)을 대응/사상/매핑하는 함수
- Decision Tree: 결정 트리
- Degree of Freedom: 자유도
- Default Value: 기본값
- Dense layer: 덴스 레이어
- Fully Connected Layer(전연결 레이어)와 동의어
- Density Estimation: 밀도 추정
- Density-based clustering: 밀도 기반 클러스터링
- Deep Belief Network: 심층 신뢰 신경망
- Deep Model: 심층 모델
- 여러 히든 레이어를 포함하는 신경망
- Deep learning: 딥러닝
- Deep Belief Network: 심층 신뢰 신경망
- Deep Neural Network(DNN): 심층 신경망
- Deep Reinforcement Learning: 심층 강화 학습ㅊ
- Dependent Variable: 종속 변수
- Derived feature: 파생 피처
- Deviation: 편차
- Diagram: 그림, 도식, 도표
- Dimensionality Reduction: 차원 축소
- Discrete feature: 불연속 특성
- 가능한 값의 유한 집합을 갖는 특성
- Discrete Probability Distribution: 이산 확률 분포
- Discrete Random Variable: 이산 확률 변수
- 확률변수가 취할 수 있는 값의 수가 유한하거나 무한하더라도 셀수있는(countable) 확률변수
- 동전을 1,000개 던질 때 앞면의 수
- 관련 용어: Continuous Random Variable
- Document Categorization: 문서 분류
- Document Classification: 문서 분류
- Document Frequency: 문서 빈도
- Document Segmentation: 문서 세그멘테이션
- Dot product: 스칼라 곱
- Double Presicion: 배정밀도
- Dropout: 드롭아웃
- Dropout regularization: 드롭아웃 규제
- 신경망을 학습시키는 데 유용한 규제 형태
- 네트워크를 학습시켜 더 작은 네트워크로 이루어진 대규모 앙상블을 모방하도록 하는 방식과
E
- Early stopping: 조기 중단
- Edit Distance: 편집 거리
- Edge: 윤곽선
- Element: 요소, 개체, 레코드
- 변량에 대한 실제의 수치
- Embeddings: 임베딩
- 임베딩(embeddings)은 고차원 벡터를 저차원 공간으로 변환한 결과
- 예제
- 백만 개의 요소를 갖는(고차원) 희소 벡터를 수백 개의 요소를 갖는(저차원) 밀집 벡터로 표현
- Embedding Learning: 임베딩 학습
- Ensemble: 앙상블
- 여러 모델의 예측을 병합한 결과
- Ensemble learning: 앙상블 학습
- Ensemble method: 앗상블 방법
- Epoch: 에포크
- 전체 데이터 세트의 각 예를 한 번씩 확인한 학습 단계
- Error: 오차
- 실제 값과 예측값의 차이
- 유형
- training error: 학습 오차
- Generation error: 일반화 오차
- Test error: 테스트 오차
- Error Function: 오차 함수
- Error Rate: 오차율
- 분류 성능 모델 성능 지표
- Extimation: 추정
- Example: 사례
- 데이터셋의 한 개 데이터, 하나 이상의 특성을 포함
- 지도하급이라면 라벨을 포함함
- Expected Value: 기대값
- Expectation Maximization: 기댓값 최대화
- Expert System: 전문가 시스템
- Exponential function: 지수 함수
F
- Factor Matrix: 요인 행렬
- Feature: 특성
- 예측을 수행하는 데 사용되는 입력 변수
- Feature Engineering: 특성 공학
- Feature Extraction: 특성 추출
- 상관 관계가 있는 여러 특성을 합치는 기법
- Feature Improtance: 특성 중요도
- 머신러닝 알고리즘에서 특성의 중요 정도를 평가
- 출처: 파이썬 라이브러리를 활용한 머신러닝(p109)
- Feature map: 특성 맵
- Feature Selection: 특성 선정
- Feed-forward neural network: FFNets, FF넷
- Filter: 필터
- Forget gate: 망각 게이트
- Fully connected layer: 완전 연결 계층
- 각 노드가 다음 히든 레이어의 모든 노드에 연결된 히든 레이어.
- Dense Layer와 동의어
G
- Gate Recurrent Unit: GRU
- Gaussian Maxture Model: 가우시안 혼합 모형
- Generalization: 일반화
- 모델에서 학습에 사용된 데이터가 아닌 이전에 접하지 못한 새로운 데이터에 대해 올바른 예측을 수행하는 역량
- Generalization Error: 일반화 오류
- Generalization linear model: 일반화 선형 모델
- Global Minimum: 전역 최솟값
- Gradient: 기울기
- 모든 독립 변수를 기준으로 한 편미분의 벡터
- Gradient Method 경사법
- Gradient Ascent Method: 경사 상승법
- Gradient Descent Method: 경사 하강법
- Gradient Vanishing: 기울기 소실
- 신경망이 깊을때 역전파중에 소실Vanishing되는 효과
H
- Hidden layer: 은닉 레이어
- 신경망에서 입력 레이어(특성)와 출력 레이어(예측) 사이에 위치하는 합성 레이어
- Hierachical Clustering Analysis(HCA): 계층 군집 분석
- Hold-out: 홀드아웃
- 학습 중에 의도적으로 사용하지 않는 데이터를 유지하는 전략
- Hyperplane: 초평면
- a subspace of one dimension less than its ambient space
- 유한 공간 보다 한 차원 낮은 부분 공간
- 3차원의 부분 공간인 평면을 일반화한 명칭
- Hypothesis: 가설
- Hyperparameter: 하이퍼파라미터
- 학습 파라미터가 아닌 사용자가 변경하는 파라미터
- 아키텍처를 결정
- hyperplane: 초평면
- 한 공간을 두 부분공간으로 나누는 경계
- 초평면의 형태
- 2차원의 초평면: 직선
- 3차원의 초평면: 평면
I ~ J
- Identify function: 항등 함수
- Image Detection: 이미지 검출
- 이미지에 특정 물체의 존재 여부와 위치
- Image Classification: 이미지 분류
- Imbalanced Dataset: 불균형 데이터셋
- Incremental Learning: 점진적 학습
- Instanced-based Learning: 사례 기반 학습
- Independently and identically distributed(ILL): 독립적이고 동일한 분포
- 변화가 없는 분포에서 각 값이 이전에 추출된 값에 의존하지 않도록 추출한 데이터
- Input Gate: 입력 게이트
- Input layer: 입력 레이어
- Inference: 추론
- 학습된 모델을 이용하여 학습하지 않은 사례에 적용하여 예측을 수행하는 것
- instance: 사례
- example과 동의어
- Iteration: 반복
- Jaccard Coefficient: 자카드 계수
- 두 집합이 공유하는 원소 수에 기반한 유사도
K
- Kernal: 커널
- K-fold cross-validation: K겹 교차검증
- K-Means: K-평균
- K-Nearest Neighbors: K-최근접 이웃
- Kernel Support Vector Machines(KSVM): 커널 서포트 벡터 머신
- 초고차원 공간에서 초평면을 사용하여 긍정 클래스와 부정 클래스를 구분
- Knowledge Discovery: 지식발견
L
- Label: 레이블
- 지도 학습에서 사례의 ‘답’ 또는 ‘결과’ 부분
- Labeling: 라벨링, 식별화
- Lasso Regression: 라쏘 회귀
- Least Absolute Shrinkage and Selection Operator
- Lambda
- Regularization rate(정규화율)과 동의어
- 정규화율을 높이면 과적합이 감소하지만 모델의 정확성이 떨어짐
- Likelyhood: 가능도
- Latent Factor Model: 잠재 요소 모델
- Latent Variable: 잠재변수
- Learning: 학습
- Learning Rate: 학습률
- Learning Rate Decay: 학습률 감소
- Learning Schedule: 학습 스케줄
- Learning rate schedule
- 매 반복에서 학습률을 결정하는 함수 (핸드온 머신러닝, p169)
- Linear regerssion: 선형회귀
- Local Minimum: 지역 최솟값
- Loss: 손실
- Loss function: 손실 함수
- Penality를 어떻게 부여할 지를 정의하는 함수
- 최적화 과정에서 사용됨
- Locality Linear Embedding: 지역 선형 임베딩
- Logistic Regression: 로지스틱 회귀
- Long short-term memory: LSTM
M
- Manifold Learning: 매니폴드 학습
- Margin: 간격
- Margin Violation: 마진 오류
- Matrix Fractorization: 행렬 분해
- Maxium likehood method: 최대 가능도 방법
- Mean Aboulute Error: 평균 절대 오차
- Mean Squared error: 평균 제곱 오차
- method of least squares, least squares approximation: 최소 제곱법
- 예측값과 정답의 오차 제곱의 합이 최소가 되는 해를 구하는 방법
- Neural Language Processing: 자연어 처리
- Mini-batch: 미니배치
- Minture normal distribution: 혼합 정규분포
- Missing Value: 결측값
- Model-based Learning: 모델 기반 학습
- Model Parallelism: 모델 병렬화
- Momentum: 모멘텀
- Multinomial Logistic Regression: 다항 로지스틱 회귀
- Multi-layer Perceptron(MLP): 다층 퍼셉트론
- 1개 이상의 은닉층을 가진 다층 전방향 신경망
- Multivariate regression: 다변량 회귀
- 여러 특성을 이용한 회귀
- 관련용어: univariate regression: 단변량 회귀
N
- Naive Bayes Classifier: 나이브 베이즈 분류기
- NER: Named Entity Resolution, 고유명사 추출
- Neural Netwrok: 신경망
- Natural Language Toolkit: NLTK
- Native log-likelihood: 음의 로그 가능도
- Noise: 노이즈
- Nonresponse Bias: 비응답 편향
- Norm: 노름
- Normalization: 정규화
- Numerical differentiation: 수치 미분
O
- Object Recognition: 사물 인식
- Objective Function: 목적함수
- Observed variable: 관측변수
- 잠재변수는 구성개념이 직접적으로 관찰되거나 측정이 되지 않는 변수
- 사회과학적으로 잠재변수 자체로는 전체 통계량을 측정하기에 불가능하기 때문에, 관측변수로 간접적으로 통계 측정
- OCR(Optical Character Recognition): 광학 문자 판독기
- Offline Learning: 오프라인 학습
- One-hot encoding: 원-핫 인코딩
- Online Learning: 온라인 학습
- Optimal Policy: 최적 정책
- Optimization: 최적화
- Outlier: 이상치
- Output layer: 출력 레이어
- Out-of-Sample Error: 외부 샘플 오류
- Overfitting: 과대적합
P
- Padding: 패딩
- Penceltile: 백분위수
- 크기가 있는 값들로 이뤄진 자료를 순서대로 나열했을 때 백분율로 나타낸 특정 위치의 값을 이르는 용어.
- 100개의 값을 가진 어떤 자료의 20 백분위수는 그 자료의 값들 중 20번째로 작은 값을 뜻한다. 50 백분위수는 중앙값.
- 관련 용어
- Quartiles: 사분위수
- Perceptron: 퍼셉트론
- Perceptron convergence theorem: 퍼셉트론 수렴 정리
- Penalty: 벌점
- Policy: 정책
- Polynomial Regression: 다항식 회귀
- Population: 모집단
- 연구 대상이 되는 모든 관측값이나 측정값의 집합
- POS Tagging: 품사 테깅
- Part of Speech Tagging
- Pooling Layer: 풀링 레이어
- Precision: 정밀도
- Predictor Variable: 예측 변수
- Prediction: 예측
- Pre-training: 선행 학습
- Principal Component Analysis(PCA): 주성분 분석
- Probability: 확률
- Problem Statement: 문제 진술
- Projection: 투영
Q - R
- Q-Learning: 큐-러닝ㅇㅇ
- Quartiles: 사분위수
- Random Initialization: 무작위 초기화
- Random Variable: 확률변수
- 시행을 해야 값이 확정되는 변수로써, 시행되는 모든 가능한 결과들의 표현
- 확률을 가지고 변하는 사건들을 수치로 표현한 것
- Regression: 회귀
- Regression Performance Metrics: 회귀 성능 평가 지표
- MSE(Mean Squere Error): 평균 제곱 오차
- 오차의 제곱의 평균
- $\frac{\sum{(\hat{Y_i}-Y)^2}}{n}$
- RMSE(Root Mean Squere Error): 루트 평균 제곱 오차
- 오차의 제곱의 평균의 루트
- $\sqrt{\frac{\sum{(\hat{Y_i}-Y)^2}}{n}}$
- MAPE(Mean Absolute Percentage Error): 평균 절대 백분비 오차
- $\frac{1}{n}\sum{\mid\frac{\hat{y_i}-y_i}{y_i}\mid}$
- MAD(Mean Absolute Derivation): 평균 절대 편차
- $\frac{\sum{\mid\hat{y_i}-y_i\mid}}{y_i}$
- MAE(Mean Absolute Error): 평균 절대 오차
- $\frac{\sum{\mid\hat{y_i}-y_i\mid}}{y_i}$
- $R^2$
- MSE(Mean Squere Error): 평균 제곱 오차
- Reinforcement learning: 강화학습
- ReLU function: ReLU 함수
- Restricted Boltzmann Machine(RBM): 제한 볼츠만 머신
- Robo Advisor: 로보 어드바이저
- 고도화된 알고리즘과 빅데이터를 통해 인간 프라이빗 뱅커(Private Banker) 대신 모바일 기기나 PC를 통해서 포트폴리오 관리를 수행하는 온라인 자산 관리 서비스
- Root Mean Square Error(RSME): 평균 제곱근 오차
- 추정 값 또는 모델이 예측한 값과 실제 환경에서 관찰되는 값의 차이 측정법
- Random Forrests: 랜덤 포레스트
- Recall: 재현율
- 분류 학습 모델 성능 지표
- Recurrent Neural Network(RNN): 순환 신경망
- 인공 신경망을 구성하는 유닛 사잉의 연결이 Directed Cycle을 구성하는 신경망
- Reinforcement Learning: 강화 학습
- Real-Time Recurrent Learning: 신시산 순환 학습
- Regression: 회귀
- Regularization: 규제
- Representation: 표현
- 데이터를 유용한 특성에 매핑하는 과정
- Representation Learning: 표현 학습
- Residuals: 잔차
- Residual error: 잔여 오차
- Restricted Boltzmann Machine: 제한된 볼츠만 머신
- Reward: 보상
- Receiver Operating Characteristic(ROC): 수신기 조작 특성
- Root Mean Square Error: 평균 제곱근 오차
- Rounding Error: 반올림 오차
S
- Saddle point: 안정점
- Sample: 사례, 표본
- (통계)더 큰 모집단에서 추론을 위해 수집하고 분석하는 사건의 부분 집합
- Sample Space: 표본 공간
- Trial(시행)의 결과들의 집합
- 예제 - 동전을 던지는 실험에서 표본 공간은 {앞면, 뒷면} - 6면 주사위를 던지는 실험에서 표본 공간은 {1, 2, 3, 4, 5, 6}
- Sampling Bias: 샘플링 편향
- Sampleing Noise: 샘플링 잡음
- Scaling: 조정
- 특성 추출에서 널리 사용되는 방식으로서 특성 값 범위를 데이터 세트의 다른 특성 범위와 일치하도록 맞춤
- Scatter plot: 산포도, 산점도
- Self-Orgnaization: 자기 조직화
- Semisupervised Learning: 준지도 학습
- 일부 레이블, 대다수 데이터 레이블이 없는 데이터로 학습
- Sequence model: 시퀀스 모델
- 입력에 순서 종속성이 있는 모델
- Shape: 형상
- Sigmoid function: 시그모이드 함수
- 로지스틱 또는 다항 회귀 출력을 확률에 매핑하여 0~1 사이의 값을 반환하는 함수
- Simularity: 유사도
- Signal: 시그널
- 클로드 새넌(Claude Shannon)의 정보이론에서 정보를 시그널(Signal)로 표현한다. (출처: 핸즈온 머신러닝)
- Singularity: 특이점
- (수학): 이상한 성질을 가지는, 곡선 위의 특정한 점. - $f(x)=\frac{1}{x}$, x=0
- (인공지능): 인공지능이 인간을 넘어서는 전환점 - “특이점이 온다(김영사, 2007)”, 레이 커즈와인, 특이점 2045 - 인간이 스스로 만들어 낸 기술을 이해하지 못하거나 따라잡지 못하는 시점 - 초지능적 기계가 자신보다 나은 기계를 설계하는 지능의 폭발 - 기계 지능이 모든 인간 지능을 합친 것 보다 무한히 더 강력해 짐
- Singular Value Decomposition: 특잇값 분해
- Softmax: 소프트맥스
- 다중 클래스 분류 모델에서 가능한 각 클래스의 확률을 구하는 함수
- Sparse feature: 희소 특성
- 대부분의 값이 0이거나 비어 있는 특성 벡터
- Speech Recognition: 음성 인식
- Squared euclidean distance: 제곱 유클리드 거리
- Startistics: 통계량
- 표본으로부터 계산된 값
- 표본평균, 표본분산, 표본비율
- Standard Deviation: 표준 편차
- Standard Correlation Coefficient: 표준 상관 계수
- 피어슨 r
- Stationary Distribution: 정상분포
- Stratified sampling: 계층적 샘플링
- 전체 모수를 동질이 계층(Strata) 나누고, 계층별로 샘플링
- 전체 모수를 동질이 계층(Strata) 나누고, 계층별로 샘플링
- Step Function: 계단 함수
- Step size: 스텝 크기
- 학습률과 동의어
- Stop Words: 불용어 처리
- Stride: 스트라이드
- Stochastic gradient descent: 확률적 경사 하강법
- 확률적 경사하강법은 데이터셋에서 무작위로 균일하게 선택한 예에 의존하여 각 단계의 예측 경사를 계산
- Subspace: 부분차원
- Supervised Learning: 지도학습
- Support Vector Machine(SVM): 서포트 벡터 머신
- Synthetic feature: 합성 특성
- 입력 특성 중에는 없지만 하나 이상의 입력 특성으로부터 파생되는 특성
T
- Target: 타켓
- 라벨과 동의어
- Term Frequency: 단어 빈도
- Test:
- (머신러닝)검정
- 아직 검증되지 않은 어떤 주장을 통계적 방법으로 판정하는 것
- (머신러닝: 결정트리)테스트
- 결정을 위한 질문 목록(Yes or No)
- 파이썬 라이브러리를 활용한 머신러닝, p103
- (머신러닝)검정
- Test Set: 시험셋
- Temporal data: 시계열 데이터
- 서로 다른 시점에 기록된 데이터
- Temporal Difference: 시간차
- 분류: 강화학습
- Time series analysis: 시계열 분석
- Time-series data: 시계열 데이터
- Time-series forecasting: 시계열 예측
- Token: 토큰
- 텍스트를 나눈 작은 단위
- 단어, 문자, n-gram
- Tolerance: 허용 오차
- Tokenization: 토큰화
- 텍스트를 토큰으로 나누는 과정
- Topic: 토픽
- (머신러닝: 문서분류)
- 문서에 단어들의 분포
- (머신러닝: 문서분류)
- Topic Model: 토픽모델
- Training Data: 학습 데이터
- Feature + Label
- Training: 학습
- Training Instance: 학습 사례
- Training Set: 학습셋
- Train-Test data split: 학습-평가 데이터 나누기
- Transfer Learning: 전이학습
- 머신러닝 작업 간에 정보를 전송
- Translation invariance: 이동 불변성
- Trial: 시행
- 같은 조건에서 여러번 반복할 수 있고 그 결과가 우연에 의해서 결정되는 관찰이나 실험
- 예제: 주사위 던지기
U
- Univariate regression: 단변량 회귀
- Underfitting: 과소적합
- Unsupervised Learning: 비지도 학습
- Unsupervised pre-learning: 비지도 선행 학습
- UV decomposition: UV 분해
V - Z
- Validation: 검증
- Validation Set: 검증셋
- Vanishing gradient: 기울기 소실
- Variable: 변량, 변수
- 조사 대상의 특성을 나타내는 문자나 숫자
- Variance: 분산
- Vectorization: 벡터화
- Visible layer: 가시 레이어
- Visualization: 시각화
- Vocabulary: 어휘
- Weight: 가중치
- 특성의 계수 또는 심층 네트워크의 엣지
- Weight Decay: 가중치 감소
- Weighted Graph: 가중 그래프
- Whiting: 백색화
- Word Embedding: 워드 임베딩
- z-score standardization: z-점수 표준화
- $z=\frac{x-\mu}{\sigma}$
- x: 수치값
- $\mu$: 평균
- $\sigma$: 표준편차
- zero padding: 제로페딩
- Zero-shot learning: 제로샷 학습