Machine Learning 용어집

머신러닝 관련 용어를 정리합니다. 머신러닝 원문 용어의 한글 맵핑과 관련 정보를 정리합니다.

A

  • Accuracy: 정확도
    • 분류 성능 모델 성능 지표
    • 다중 클래스 분류에서 정확도
      • $\frac{#True Positive}{#Total Examples}$
    • 이진 분류 정확도
      • $\frac{#True Positive + #True Negative}{#Total Examples}$
  • Activation function: 활성화 함수
  • Adam: Adaptive Moment Estimation
    • 과거의 미분값의 방향과 분산을 계속 가중평균 내에서 효과적인 업데이트 방향과 크기 선택
  • AdamGrad
    • 미분값의 크기를 추적하고 학습률을 데이터에 적응
  • Affine transformation: 어파인 변환
  • Algorithm: 알고리즘
    • 입력을 출력으로 변환하기 위해 수행되는 명령의 순서
  • Anomaly Detection: 이상 탐지
  • Area under the curve(AUC): 곡선 아래 면적
    • 관련 용어: ROC 곡선
  • Artificial Neural Network: 인공신경망
  • Association Rule Learning: 연관 규칙 학습
  • Autoencoder: 오토인코더
  • Average pooling: 평균 풀링

B

  • backpropagation: 오차역전파법
  • Backpropagation Through Time: 시간 기반 오차역전파법
  • Backward propagation: 역전파
  • Batch: 배치
  • Batch Learning: 배치 학습
  • Batch Nomalization: 배치 정규화
    • 학습 속도 향상
    • 과대적홥 방지
    • 초깃값에 크게 의존하지 않음
  • Bayesian: 베이지언
    • 불확실성을 정량화하는 것을 목표로 하는 통계확 관점
    • 베이지언은 확률을 빈도의 개념이 아니라 믿음의 정도로 해석하는 관점
  • Bias: 편향
  • Bidirected RNN: 양방향 순환 신경망
  • binary classification: 이진 분류
    • 상호 배타적인 두 클래스 중 하나를 출력하는 분류
    • 예: ‘스팸’ / ‘스팸 아님’
  • bilinear interpolation: 이중선형 보간
  • Binomial Distribution: 이항분포
    • 이항 분포는 연속된 n번의 독립적 시행에서 각 시행이 확률 p를 가질 때의 이산 확률 분포
    • 이러한 시행은 베르누이 시행이라고 불리기도 함
  • Binomial Logistic Regression: 이항 로지스틱 회귀

C

  • category: 범주
  • Categorical data: 범주형 데이터
    • 가능한 값의 불연속 집합을 갖는 특성
    • 관련 용어: Numerical data(수치 데이터)
  • Central Limit Theorem: 중심 극한의 원리
    • 표본들의 평균을 구할 때, 극단적인 값을이 서로 상쇄되어 평균값으로 모이는 경향
  • Centroid: 중심(센트로이드)
  • Chain rule: 연쇄법칙
  • Chi-sqare: 카이제곱
  • Chi-sqare Feature Selection: 카이제곱 특성 선택법
  • Classification: 분류
  • Classification threshold: 분류 임계값
    • 긍정과 부정을 결정하는 모델의 예측 점수의 스칼라 기준 값
  • Closed-form Solution: 닫힌 형태의 해
  • Clustering: 군집
  • CNN: 합성곱 신경망
  • Coefficient: 계수
  • Collaborative filtering: 협업 필터링
    • 여러 사람의 관심분야를 기반으로 특정인의 관심 분야 예측
    • 추천에 자주 사용
  • Computational Complexity: 게산 복잡도
  • Corpus: 말뭉치
  • Confidence Interval
    • (통계)신뢰구간
      • 신뢰 수준의 확률로 모평균을 포함하는 구간
  • Confidence Level
    • (통계)신뢰수준
      • 어떤 모수가 신뢰 구간에 포함될 확률
      • 동일한 모집단에서 반복해서 표본을 추출할 경우 모집단 모수를 포함할 구간의 비율
  • Confuse Matrix: 혼동 행렬
    • 학습된 모델이 예측한 예측 범주와 데이터의 실제 분류 범주의 빈도를 교차표 형태로 정리한 행렬
    • 분류 정확도 등 분류 학습 모델 결과 평가에 사용
    • 분류 문제에서 관심이 있는 범주를 긍정(Positive), 그 외 범주를 부정(Nagative)라고 지정
    • 범주의 종류
      • True Positive: 참 긍정 -> 긍정을 바르게 예측
      • True Negative: 참 부정 -> 부정을 바르게 예측
      • False Positive: 거짓 긍정 -> 긍정을 잘못 예측
      • False Negative: 거짓 부정 -> 부정을 잘못 예측
  • Continuous feature: 연속 특성
    • 부동 소수점 타입의 특성
  • Continuous Probability Distribution: 연속 확률 분포
  • Continuous Random Variable: 연속 확률 변수
    • 확률변수가 취할 수 있는 값이 일정한 구간내의 실수로서 그 수가 무한한 확률변수
    • 체중, 온도, 키
    • 대표 사례: 정규분포
  • Convergence: 수렴
  • Convex: 볼록
  • Convex function: 볼록 함수
  • Convolution: 컨볼루션
  • Convolutional layer: 컨볼루션 레이어
  • Correllation Coefficient: 상관 계수
  • Cosine Similarity: 코사인 유사도
    • 두 벡터의 사이의 각도를 -1에서 1로 나타내는 척도
    • 1이면 크고 -1이면 작다
  • Cost: 비용
    • Loss(손실)과 동의어
  • Cost Function: 비용 함수
  • Curse of Dimensionality: 차원의 저주
  • Cross Entropy: 교차 엔트로피
  • Cross Validation: 교차 검증
  • Cross Validation Error: 교차 검증 오차
  • Cumulative Reward: 누적 보상

D

  • Data augmentation 데이터 증식
  • Data Mining: 데이터 마아닝
    • 머신러닝을 적용하여 대용량 데이러를 분석하여 숨겨진 패턴을 찾는 것
  • Data Snooping Bias: 데이터 스누핑 편향
    • 테스트 데이터가 유출되어 편향을 일으키는
  • Dataset: 데이터셋
    • 사례를 모은 것
  • Decision boundary: 결정 경계
    • 클래스 사이의 구분 선
  • Decision Function: 결정 함수
    • 유사어: Distrimination Function(판별 함수)
    • 샘플 공간(표본 공간)에서 결정 영역(Decision Region)을 대응/사상/매핑하는 함수
  • Decision Tree: 결정 트리
  • Degree of Freedom: 자유도
  • Default Value: 기본값
  • Dense layer: 덴스 레이어
    • Fully Connected Layer(전연결 레이어)와 동의어
  • Density Estimation: 밀도 추정
  • Density-based clustering: 밀도 기반 클러스터링
  • Deep Belief Network: 심층 신뢰 신경망
  • Deep Model: 심층 모델
    • 여러 히든 레이어를 포함하는 신경망
  • Deep learning: 딥러닝
  • Deep Belief Network: 심층 신뢰 신경망
  • Deep Neural Network(DNN): 심층 신경망
  • Deep Reinforcement Learning: 심층 강화 학습ㅊ
  • Dependent Variable: 종속 변수
  • Derived feature: 파생 피처
  • Deviation: 편차
  • Diagram: 그림, 도식, 도표
  • Dimensionality Reduction: 차원 축소
  • Discrete feature: 불연속 특성
    • 가능한 값의 유한 집합을 갖는 특성
  • Discrete Probability Distribution: 이산 확률 분포
  • Discrete Random Variable: 이산 확률 변수
    • 확률변수가 취할 수 있는 값의 수가 유한하거나 무한하더라도 셀수있는(countable) 확률변수
    • 동전을 1,000개 던질 때 앞면의 수
    • 관련 용어: Continuous Random Variable
  • Document Categorization: 문서 분류
  • Document Classification: 문서 분류
  • Document Frequency: 문서 빈도
  • Document Segmentation: 문서 세그멘테이션
  • Dot product: 스칼라 곱
  • Double Presicion: 배정밀도
  • Dropout: 드롭아웃
  • Dropout regularization: 드롭아웃 규제
    • 신경망을 학습시키는 데 유용한 규제 형태
    • 네트워크를 학습시켜 더 작은 네트워크로 이루어진 대규모 앙상블을 모방하도록 하는 방식과

E

  • Early stopping: 조기 중단
  • Edit Distance: 편집 거리
  • Edge: 윤곽선
  • Element: 요소, 개체, 레코드
    • 변량에 대한 실제의 수치
  • Embeddings: 임베딩
    • 임베딩(embeddings)은 고차원 벡터를 저차원 공간으로 변환한 결과
    • 예제
      • 백만 개의 요소를 갖는(고차원) 희소 벡터를 수백 개의 요소를 갖는(저차원) 밀집 벡터로 표현
  • Embedding Learning: 임베딩 학습
  • Ensemble: 앙상블
    • 여러 모델의 예측을 병합한 결과
  • Ensemble learning: 앙상블 학습
  • Ensemble method: 앗상블 방법
  • Epoch: 에포크
    • 전체 데이터 세트의 각 예를 한 번씩 확인한 학습 단계
  • Error: 오차
    • 실제 값과 예측값의 차이
    • 유형
      • training error: 학습 오차
      • Generation error: 일반화 오차
      • Test error: 테스트 오차
  • Error Function: 오차 함수
  • Error Rate: 오차율
    • 분류 성능 모델 성능 지표
  • Extimation: 추정
  • Example: 사례
    • 데이터셋의 한 개 데이터, 하나 이상의 특성을 포함
    • 지도하급이라면 라벨을 포함함
  • Expected Value: 기대값
  • Expectation Maximization: 기댓값 최대화
  • Expert System: 전문가 시스템
  • Exponential function: 지수 함수

F

  • Factor Matrix: 요인 행렬
  • Feature: 특성
    • 예측을 수행하는 데 사용되는 입력 변수
  • Feature Engineering: 특성 공학
  • Feature Extraction: 특성 추출
    • 상관 관계가 있는 여러 특성을 합치는 기법
  • Feature Improtance: 특성 중요도
    • 머신러닝 알고리즘에서 특성의 중요 정도를 평가
    • 출처: 파이썬 라이브러리를 활용한 머신러닝(p109)
  • Feature map: 특성 맵
  • Feature Selection: 특성 선정
  • Feed-forward neural network: FFNets, FF넷
  • Filter: 필터
  • Forget gate: 망각 게이트
  • Fully connected layer: 완전 연결 계층
    • 각 노드가 다음 히든 레이어의 모든 노드에 연결된 히든 레이어.
    • Dense Layer와 동의어

G

  • Gate Recurrent Unit: GRU
  • Gaussian Maxture Model: 가우시안 혼합 모형
  • Generalization: 일반화
    • 모델에서 학습에 사용된 데이터가 아닌 이전에 접하지 못한 새로운 데이터에 대해 올바른 예측을 수행하는 역량
  • Generalization Error: 일반화 오류
  • Generalization linear model: 일반화 선형 모델
  • Global Minimum: 전역 최솟값
  • Gradient: 기울기
    • 모든 독립 변수를 기준으로 한 편미분의 벡터
  • Gradient Method 경사법
    • Gradient Ascent Method: 경사 상승법
    • Gradient Descent Method: 경사 하강법
  • Gradient Vanishing: 기울기 소실
    • 신경망이 깊을때 역전파중에 소실Vanishing되는 효과

H

  • Hidden layer: 은닉 레이어
    • 신경망에서 입력 레이어(특성)와 출력 레이어(예측) 사이에 위치하는 합성 레이어
  • Hierachical Clustering Analysis(HCA): 계층 군집 분석
  • Hold-out: 홀드아웃
    • 학습 중에 의도적으로 사용하지 않는 데이터를 유지하는 전략
  • Hyperplane: 초평면
    • a subspace of one dimension less than its ambient space
    • 유한 공간 보다 한 차원 낮은 부분 공간
    • 3차원의 부분 공간인 평면을 일반화한 명칭
  • Hypothesis: 가설
  • Hyperparameter: 하이퍼파라미터
    • 학습 파라미터가 아닌 사용자가 변경하는 파라미터
    • 아키텍처를 결정
  • hyperplane: 초평면
    • 한 공간을 두 부분공간으로 나누는 경계
    • 초평면의 형태
      • 2차원의 초평면: 직선
      • 3차원의 초평면: 평면

I ~ J

  • Identify function: 항등 함수
  • Image Detection: 이미지 검출
    • 이미지에 특정 물체의 존재 여부와 위치
  • Image Classification: 이미지 분류
  • Imbalanced Dataset: 불균형 데이터셋
  • Incremental Learning: 점진적 학습
  • Instanced-based Learning: 사례 기반 학습
  • Independently and identically distributed(ILL): 독립적이고 동일한 분포
    • 변화가 없는 분포에서 각 값이 이전에 추출된 값에 의존하지 않도록 추출한 데이터
  • Input Gate: 입력 게이트
  • Input layer: 입력 레이어
  • Inference: 추론
    • 학습된 모델을 이용하여 학습하지 않은 사례에 적용하여 예측을 수행하는 것
  • instance: 사례
    • example과 동의어
  • Iteration: 반복
  • Jaccard Coefficient: 자카드 계수
    • 두 집합이 공유하는 원소 수에 기반한 유사도

K

  • Kernal: 커널
  • K-fold cross-validation: K겹 교차검증
  • K-Means: K-평균
  • K-Nearest Neighbors: K-최근접 이웃
  • Kernel Support Vector Machines(KSVM): 커널 서포트 벡터 머신
    • 초고차원 공간에서 초평면을 사용하여 긍정 클래스와 부정 클래스를 구분
  • Knowledge Discovery: 지식발견

L

  • Label: 레이블
    • 지도 학습에서 사례의 ‘답’ 또는 ‘결과’ 부분
  • Labeling: 라벨링, 식별화
  • Lasso Regression: 라쏘 회귀
    • Least Absolute Shrinkage and Selection Operator
  • Lambda
    • Regularization rate(정규화율)과 동의어
    • 정규화율을 높이면 과적합이 감소하지만 모델의 정확성이 떨어짐
  • Likelyhood: 가능도
  • Latent Factor Model: 잠재 요소 모델
  • Latent Variable: 잠재변수
  • Learning: 학습
  • Learning Rate: 학습률
  • Learning Rate Decay: 학습률 감소
  • Learning Schedule: 학습 스케줄
    • Learning rate schedule
    • 매 반복에서 학습률을 결정하는 함수 (핸드온 머신러닝, p169)
  • Linear regerssion: 선형회귀
  • Local Minimum: 지역 최솟값
  • Loss: 손실
  • Loss function: 손실 함수
    • Penality를 어떻게 부여할 지를 정의하는 함수
    • 최적화 과정에서 사용됨
  • Locality Linear Embedding: 지역 선형 임베딩
  • Logistic Regression: 로지스틱 회귀
  • Long short-term memory: LSTM

M

  • Manifold Learning: 매니폴드 학습
  • Margin: 간격
  • Margin Violation: 마진 오류
  • Matrix Fractorization: 행렬 분해
  • Maxium likehood method: 최대 가능도 방법
  • Mean Aboulute Error: 평균 절대 오차
  • Mean Squared error: 평균 제곱 오차
  • method of least squares, least squares approximation: 최소 제곱법
    • 예측값과 정답의 오차 제곱의 합이 최소가 되는 해를 구하는 방법
  • Neural Language Processing: 자연어 처리
  • Mini-batch: 미니배치
  • Minture normal distribution: 혼합 정규분포
  • Missing Value: 결측값
  • Model-based Learning: 모델 기반 학습
  • Model Parallelism: 모델 병렬화
  • Momentum: 모멘텀
  • Multinomial Logistic Regression: 다항 로지스틱 회귀
  • Multi-layer Perceptron(MLP): 다층 퍼셉트론
    • 1개 이상의 은닉층을 가진 다층 전방향 신경망
  • Multivariate regression: 다변량 회귀
    • 여러 특성을 이용한 회귀
    • 관련용어: univariate regression: 단변량 회귀

N

  • Naive Bayes Classifier: 나이브 베이즈 분류기
  • NER: Named Entity Resolution, 고유명사 추출
  • Neural Netwrok: 신경망
  • Natural Language Toolkit: NLTK
  • Native log-likelihood: 음의 로그 가능도
  • Noise: 노이즈
  • Nonresponse Bias: 비응답 편향
  • Norm: 노름
  • Normalization: 정규화
  • Numerical differentiation: 수치 미분

O

  • Object Recognition: 사물 인식
  • Objective Function: 목적함수
  • Observed variable: 관측변수
    • 잠재변수는 구성개념이 직접적으로 관찰되거나 측정이 되지 않는 변수
    • 사회과학적으로 잠재변수 자체로는 전체 통계량을 측정하기에 불가능하기 때문에, 관측변수로 간접적으로 통계 측정
  • OCR(Optical Character Recognition): 광학 문자 판독기
  • Offline Learning: 오프라인 학습
  • One-hot encoding: 원-핫 인코딩
  • Online Learning: 온라인 학습
  • Optimal Policy: 최적 정책
  • Optimization: 최적화
  • Outlier: 이상치
  • Output layer: 출력 레이어
  • Out-of-Sample Error: 외부 샘플 오류
  • Overfitting: 과대적합

P

  • Padding: 패딩
  • Penceltile: 백분위수
    • 크기가 있는 값들로 이뤄진 자료를 순서대로 나열했을 때 백분율로 나타낸 특정 위치의 값을 이르는 용어.
    • 100개의 값을 가진 어떤 자료의 20 백분위수는 그 자료의 값들 중 20번째로 작은 값을 뜻한다. 50 백분위수는 중앙값.
    • 관련 용어
      • Quartiles: 사분위수
  • Perceptron: 퍼셉트론
  • Perceptron convergence theorem: 퍼셉트론 수렴 정리
  • Penalty: 벌점
  • Policy: 정책
  • Polynomial Regression: 다항식 회귀
  • Population: 모집단
    • 연구 대상이 되는 모든 관측값이나 측정값의 집합
  • POS Tagging: 품사 테깅
    • Part of Speech Tagging
  • Pooling Layer: 풀링 레이어
  • Precision: 정밀도
  • Predictor Variable: 예측 변수
  • Prediction: 예측
  • Pre-training: 선행 학습
  • Principal Component Analysis(PCA): 주성분 분석
  • Probability: 확률
  • Problem Statement: 문제 진술
  • Projection: 투영

Q - R

  • Q-Learning: 큐-러닝ㅇㅇ
  • Quartiles: 사분위수
  • Random Initialization: 무작위 초기화
  • Random Variable: 확률변수
    • 시행을 해야 값이 확정되는 변수로써, 시행되는 모든 가능한 결과들의 표현
    • 확률을 가지고 변하는 사건들을 수치로 표현한 것
  • Regression: 회귀
  • Regression Performance Metrics: 회귀 성능 평가 지표
    • MSE(Mean Squere Error): 평균 제곱 오차
      • 오차의 제곱의 평균
      • $\frac{\sum{(\hat{Y_i}-Y)^2}}{n}$
    • RMSE(Root Mean Squere Error): 루트 평균 제곱 오차
      • 오차의 제곱의 평균의 루트
      • $\sqrt{\frac{\sum{(\hat{Y_i}-Y)^2}}{n}}$
    • MAPE(Mean Absolute Percentage Error): 평균 절대 백분비 오차
      • $\frac{1}{n}\sum{\mid\frac{\hat{y_i}-y_i}{y_i}\mid}$
    • MAD(Mean Absolute Derivation): 평균 절대 편차
      • $\frac{\sum{\mid\hat{y_i}-y_i\mid}}{y_i}$
    • MAE(Mean Absolute Error): 평균 절대 오차
      • $\frac{\sum{\mid\hat{y_i}-y_i\mid}}{y_i}$
    • $R^2$
  • Reinforcement learning: 강화학습
  • ReLU function: ReLU 함수
  • Restricted Boltzmann Machine(RBM): 제한 볼츠만 머신
  • Robo Advisor: 로보 어드바이저
    • 고도화된 알고리즘과 빅데이터를 통해 인간 프라이빗 뱅커(Private Banker) 대신 모바일 기기나 PC를 통해서 포트폴리오 관리를 수행하는 온라인 자산 관리 서비스
  • Root Mean Square Error(RSME): 평균 제곱근 오차
    • 추정 값 또는 모델이 예측한 값과 실제 환경에서 관찰되는 값의 차이 측정법
  • Random Forrests: 랜덤 포레스트
  • Recall: 재현율
    • 분류 학습 모델 성능 지표
  • Recurrent Neural Network(RNN): 순환 신경망
    • 인공 신경망을 구성하는 유닛 사잉의 연결이 Directed Cycle을 구성하는 신경망
  • Reinforcement Learning: 강화 학습
  • Real-Time Recurrent Learning: 신시산 순환 학습
  • Regression: 회귀
  • Regularization: 규제
  • Representation: 표현
    • 데이터를 유용한 특성에 매핑하는 과정
  • Representation Learning: 표현 학습
  • Residuals: 잔차
  • Residual error: 잔여 오차
  • Restricted Boltzmann Machine: 제한된 볼츠만 머신
  • Reward: 보상
  • Receiver Operating Characteristic(ROC): 수신기 조작 특성
  • Root Mean Square Error: 평균 제곱근 오차
  • Rounding Error: 반올림 오차

S

  • Saddle point: 안정점
  • Sample: 사례, 표본
    • (통계)더 큰 모집단에서 추론을 위해 수집하고 분석하는 사건의 부분 집합
  • Sample Space: 표본 공간
    • Trial(시행)의 결과들의 집합
    • 예제 - 동전을 던지는 실험에서 표본 공간은 {앞면, 뒷면} - 6면 주사위를 던지는 실험에서 표본 공간은 {1, 2, 3, 4, 5, 6}
  • Sampling Bias: 샘플링 편향
  • Sampleing Noise: 샘플링 잡음
  • Scaling: 조정
    • 특성 추출에서 널리 사용되는 방식으로서 특성 값 범위를 데이터 세트의 다른 특성 범위와 일치하도록 맞춤
  • Scatter plot: 산포도, 산점도
  • Self-Orgnaization: 자기 조직화
  • Semisupervised Learning: 준지도 학습
    • 일부 레이블, 대다수 데이터 레이블이 없는 데이터로 학습
  • Sequence model: 시퀀스 모델
    • 입력에 순서 종속성이 있는 모델
  • Shape: 형상
  • Sigmoid function: 시그모이드 함수
    • 로지스틱 또는 다항 회귀 출력을 확률에 매핑하여 0~1 사이의 값을 반환하는 함수
  • Simularity: 유사도
  • Signal: 시그널
    • 클로드 새넌(Claude Shannon)의 정보이론에서 정보를 시그널(Signal)로 표현한다. (출처: 핸즈온 머신러닝)
  • Singularity: 특이점
    • (수학): 이상한 성질을 가지는, 곡선 위의 특정한 점. - $f(x)=\frac{1}{x}$, x=0
    • (인공지능): 인공지능이 인간을 넘어서는 전환점 - “특이점이 온다(김영사, 2007)”, 레이 커즈와인, 특이점 2045 - 인간이 스스로 만들어 낸 기술을 이해하지 못하거나 따라잡지 못하는 시점 - 초지능적 기계가 자신보다 나은 기계를 설계하는 지능의 폭발 - 기계 지능이 모든 인간 지능을 합친 것 보다 무한히 더 강력해 짐
  • Singular Value Decomposition: 특잇값 분해
  • Softmax: 소프트맥스
    • 다중 클래스 분류 모델에서 가능한 각 클래스의 확률을 구하는 함수
  • Sparse feature: 희소 특성
    • 대부분의 값이 0이거나 비어 있는 특성 벡터
  • Speech Recognition: 음성 인식
  • Squared euclidean distance: 제곱 유클리드 거리
  • Startistics: 통계량
    • 표본으로부터 계산된 값
    • 표본평균, 표본분산, 표본비율
  • Standard Deviation: 표준 편차
  • Standard Correlation Coefficient: 표준 상관 계수
    • 피어슨 r
  • Stationary Distribution: 정상분포
  • Stratified sampling: 계층적 샘플링
    • 전체 모수를 동질이 계층(Strata) 나누고, 계층별로 샘플링
  • Step Function: 계단 함수
  • Step size: 스텝 크기
    • 학습률과 동의어
  • Stop Words: 불용어 처리
  • Stride: 스트라이드
  • Stochastic gradient descent: 확률적 경사 하강법
    • 확률적 경사하강법은 데이터셋에서 무작위로 균일하게 선택한 예에 의존하여 각 단계의 예측 경사를 계산
  • Subspace: 부분차원
  • Supervised Learning: 지도학습
  • Support Vector Machine(SVM): 서포트 벡터 머신
  • Synthetic feature: 합성 특성
    • 입력 특성 중에는 없지만 하나 이상의 입력 특성으로부터 파생되는 특성

T

  • Target: 타켓
    • 라벨과 동의어
  • Term Frequency: 단어 빈도
  • Test:
    • (머신러닝)검정
      • 아직 검증되지 않은 어떤 주장을 통계적 방법으로 판정하는 것
    • (머신러닝: 결정트리)테스트
      • 결정을 위한 질문 목록(Yes or No)
      • 파이썬 라이브러리를 활용한 머신러닝, p103
  • Test Set: 시험셋
  • Temporal data: 시계열 데이터
    • 서로 다른 시점에 기록된 데이터
  • Temporal Difference: 시간차
    • 분류: 강화학습
  • Time series analysis: 시계열 분석
  • Time-series data: 시계열 데이터
  • Time-series forecasting: 시계열 예측
  • Token: 토큰
    • 텍스트를 나눈 작은 단위
    • 단어, 문자, n-gram
  • Tolerance: 허용 오차
  • Tokenization: 토큰화
    • 텍스트를 토큰으로 나누는 과정
  • Topic: 토픽
    • (머신러닝: 문서분류)
      • 문서에 단어들의 분포
  • Topic Model: 토픽모델
  • Training Data: 학습 데이터
    • Feature + Label
  • Training: 학습
  • Training Instance: 학습 사례
  • Training Set: 학습셋
  • Train-Test data split: 학습-평가 데이터 나누기
  • Transfer Learning: 전이학습
    • 머신러닝 작업 간에 정보를 전송
  • Translation invariance: 이동 불변성
  • Trial: 시행
    • 같은 조건에서 여러번 반복할 수 있고 그 결과가 우연에 의해서 결정되는 관찰이나 실험
    • 예제: 주사위 던지기

U

  • Univariate regression: 단변량 회귀
  • Underfitting: 과소적합
  • Unsupervised Learning: 비지도 학습
  • Unsupervised pre-learning: 비지도 선행 학습
  • UV decomposition: UV 분해

V - Z

  • Validation: 검증
  • Validation Set: 검증셋
  • Vanishing gradient: 기울기 소실
  • Variable: 변량, 변수
    • 조사 대상의 특성을 나타내는 문자나 숫자
  • Variance: 분산
  • Vectorization: 벡터화
  • Visible layer: 가시 레이어
  • Visualization: 시각화
  • Vocabulary: 어휘
  • Weight: 가중치
    • 특성의 계수 또는 심층 네트워크의 엣지
  • Weight Decay: 가중치 감소
  • Weighted Graph: 가중 그래프
  • Whiting: 백색화
  • Word Embedding: 워드 임베딩
  • z-score standardization: z-점수 표준화
    • $z=\frac{x-\mu}{\sigma}$
    • x: 수치값
    • $\mu$: 평균
    • $\sigma$: 표준편차
  • zero padding: 제로페딩
  • Zero-shot learning: 제로샷 학습

작성자: 김태완
김태완 avatar
작성자: 김태완
1999년 부터 Java, Framework, Middleware, SOA, DB Replication, Cache, CEP, NoSQL, Big Data, Cloud를 키워드로 살아왔습니다. 현재는 빅데이터와 Machine Learning을 중점에 두고 있습니다.
E-mail: taewanme@gmail.com