본문 바로가기

분류 전체보기

(29)
[LaTeX] highlight error - ! Argument of \UTFviii@three@octets@combine has an extra }.<inserted text>\par ...tion and estimation for state estimation} 에러 해결 방법 안녕하세요. 레이텍을 사용하며, 특정 문구에 형광펜 효과를 주기 위해 \usepackage{soul} 즉, soul 패키지를 사용하시게 될겁니다. 이때 말도 안되는 에러가 발생하는 경우가 있는데, 제 경우는 문장 내에 특수 문자가 존재하여 에러가 발생했습니다. 위 에러를 해결하기 위해서는 1) 하이라이트를 주고 싶은 문장에서 특수 문자를 제거하거나, 2) $$ 을 통해 수식 표현으로 변경해주어야 정상적으로 컴파일이 이루어집니다.
[tensorflow/keras] fit() vs. fit_generator() 안녕하세요. 논문 revision 중에 정신이 나갈 것 같아 리프레시할겸 소소한 업로드 하나 하겠습니다. tensorflow.keras를 사용한 모델 학습 시에 fit()을 사용하는 경우와 fit_generator()를 사용하는 경우를 보셨을 텐데요, fit()은 input으로써 x와 y를 동시에 사용하는 기법입니다. 당연히 한번에 들어가는 input이 크기 때문에 많은 메모리를 사용하게 됩니다. fig_generator()는 파이썬 내 generator를 사용한 것입니다. 대용량의 데이터를 효율적으로 학습할 수 있는 특징이 있는데, generator를 통해 형성된 데이터를 batch-by-batch로 학습하는 기법입니다. 메모리를 parallel하게 사용하는 데에 효과적입니다. 그럼 또 뵈어요 ^__^.
[Paper Review] A Unified Approach to Interpreting Model Predictions . 안녕하세요. 에이치비킴 입니다. 논문명: A Unified Approach to Interpreting Model Predictions (Lundberg, Scott M., and Su-In Lee) 인공지능에서, 제작한 모델이 예측한 결과를 이해하는 것은 굉장히 중요하다 (특정 accuracy가 발생한 이유와 같이). 하지만, 복잡한 모델을 사용하여 (앙상블 및 딥러닝 모델들) large modern dataset에서 높은 정확도를 보이는 경우에는 정확도와 해석가능성 사이에 tension이 발생한다. 이러한 문제를 해결하기 위해, 본 논문에서는 SHAP (SHapley Additive exPlanations)을 제안한다. SHAP의 특성은 다음과 같다. 1. SHAP은 각각의 특성에 부분적 예측을 ..
[LaTeX] 큰따옴표, 작은따옴표 올바르게 작성하는법 LaTeX을 사용하여 논문을 작성하던 도중, 따옴표 관련된 작성법이 독특하여 여러분과 공유하면 좋을 것 같아 포스팅합니다. 여는 작은따옴표 작성하는법 : ` (ex. `안녕하세요.) 닫는 작은따옴표 작성하는법 : ' (ex. 안녕하세요.') 여는 큰따옴표 작성하는법 : `` (ex. ``안녕하세요.) 닫는 큰따옴표 작성하는법 : '' (ex. 안녕하세요.'') 이를 활용해서 문장을 작성한 예시는 다음과 같습니다. 작은따옴표 활용 : `안녕하세요.' 큰따옴표 활용 : ``안녕하세요.''
슈타켈베르크(Stackelberg) 모형 이란? 슈타켈베르크 모형은 과점시장이론에서 사용되는 용어로, 우선 과점시장의 개념을 가지고 있어야 함 과점시장 : 3개 이상(2개일 경우에는 복점이라고 칭함)의 기업이 공급자 역할을 하는 시장을 의미함 또한, 산출량과 가격에 있어 기업간 (강한)상호의존적인 관계를 가지는 것을 특징으로 함 과점시장에서 기업들이 독자적 행동을 할 때 여러 모형으로 분류할 수 있는데, 그 중 하나가 슈타켈베르크 모형임 슈타켈베르크 모형 : 과점시장의 어떤 기업은 산출량에 대해 선도적인 역할을 함으로써 자신에게 유리한 상황을 만드려고 한다는 가정으로 시작함 선도자인 기업은 추종자인 상대 기업의 반응을 미리 짐작하고, 그것을 고려하여 본인의 이윤이 가장 커지는 산출량을 선택하게 됨 두 기업이 모두 선도자가 되려는 경우에는 잘못된 반응곡..
L1 norm, L2 norm 란? . 안녕하세요 에이치비킴 입니다. 우리나라에서는 norm이 '노름'으로 발음되는 것 같습니다. Norm의 수학적 정의는 복잡하지만, 딥러닝에서의 Lp norm(특히, L1 norm 및 L2 norm)은 딥러닝 모델이 학습될 때 과적합을 방지하기 위해 사용된다고 정의할 수 있습니다. p>=1 일 때, Lp norm은 다음과 같이 정의됩니다. 위 정의를 기반으로 해서 L1 norm과 L2 norm을 알아보겠습니다. L1 norm : L1 norm은 다음과 같이 정의됩니다. p, q라는 벡터가 있을 때, 두 벡터 차의 절댓값의 합입니다. L1 norm에 의해 도출되는 거리를 L1 distance 또는 Manhattan distance로 표현할 수 있습니다. 여담으로, L1 distance는 Rectangula..
[ML/DL] 스태킹 (Stacking) 이란? Stacking : 개별 모델이 예측한 데이터를 다시 meta dataset으로 사용해서 학습하는 방법 - Stacking을 위해서는 2가지 개념의 모델이 필요함 - 그림 1에서의 Base Learner 및 Meta Learner - Overfitting을 방지하기 위해 cross validation 방법을 적용함
[ML/DL] 랜덤 포레스트 (Random Forest) 란? 랜덤 포레스트 (Random Forest) : 배깅(Bagging) 알고리즘의 일종 배깅 (Bagging) : 같은 알고리즘으로 여러 개의 분류기를 만들어서 보팅으로 최종 결정하는 알고리즘 랜덤 포레스트의 장점 - 모델 앙상블 알고리즘 중 비교적 빠른 수행 속도를 가짐 - 다양한 영역에서 대체로 높은 예측 성능을 보임 - 결정 트리의 쉽고 직관적인 장점을 그대로 가짐