나의 이야기들
-
유용한 한 문장
[LaTeX] highlight error - ! Argument of \UTFviii@three@octets@combine has an extra }.\par ...tion and estimation for state estimation} 에러 해결 방법
안녕하세요. 레이텍을 사용하며, 특정 문구에 형광펜 효과를 주기 위해 \usepackage{soul} 즉, soul 패키지를 사용하시게 될겁니다. 이때 말도 안되는 에러가 발생하는 경우가 있는데, 제 경우는 문장 내에 특수 문자가 존재하여 에러가 발생했습니다. 위 에러를 해결하기 위해서는 1) 하이라이트를 주고 싶은 문장에서 특수 문자를 제거하거나, 2) $$ 을 통해 수식 표현으로 변경해주어야 정상적으로 컴파일이 이루어집니다.
-
유용한 한 문장
[tensorflow/keras] fit() vs. fit_generator()
안녕하세요. 논문 revision 중에 정신이 나갈 것 같아 리프레시할겸 소소한 업로드 하나 하겠습니다. tensorflow.keras를 사용한 모델 학습 시에 fit()을 사용하는 경우와 fit_generator()를 사용하는 경우를 보셨을 텐데요, fit()은 input으로써 x와 y를 동시에 사용하는 기법입니다. 당연히 한번에 들어가는 input이 크기 때문에 많은 메모리를 사용하게 됩니다. fig_generator()는 파이썬 내 generator를 사용한 것입니다. 대용량의 데이터를 효율적으로 학습할 수 있는 특징이 있는데, generator를 통해 형성된 데이터를 batch-by-batch로 학습하는 기법입니다. 메모리를 parallel하게 사용하는 데에 효과적입니다. 그럼 또 뵈어요 ^__^.
-
내가 보려고 하는 논문 리뷰
[Paper Review] A Unified Approach to Interpreting Model Predictions
. 안녕하세요. 에이치비킴 입니다. 논문명: A Unified Approach to Interpreting Model Predictions (Lundberg, Scott M., and Su-In Lee) 인공지능에서, 제작한 모델이 예측한 결과를 이해하는 것은 굉장히 중요하다 (특정 accuracy가 발생한 이유와 같이). 하지만, 복잡한 모델을 사용하여 (앙상블 및 딥러닝 모델들) large modern dataset에서 높은 정확도를 보이는 경우에는 정확도와 해석가능성 사이에 tension이 발생한다. 이러한 문제를 해결하기 위해, 본 논문에서는 SHAP (SHapley Additive exPlanations)을 제안한다. SHAP의 특성은 다음과 같다. 1. SHAP은 각각의 특성에 부분적 예측을 ..
사람들이 많이 찾는 이야기들
-
ML & DL 이야기
L1 norm, L2 norm 란?
. 안녕하세요 에이치비킴 입니다. 우리나라에서는 norm이 '노름'으로 발음되는 것 같습니다. Norm의 수학적 정의는 복잡하지만, 딥러닝에서의 Lp norm(특히, L1 norm 및 L2 norm)은 딥러닝 모델이 학습될 때 과적합을 방지하기 위해 사용된다고 정의할 수 있습니다. p>=1 일 때, Lp norm은 다음과 같이 정의됩니다. 위 정의를 기반으로 해서 L1 norm과 L2 norm을 알아보겠습니다. L1 norm : L1 norm은 다음과 같이 정의됩니다. p, q라는 벡터가 있을 때, 두 벡터 차의 절댓값의 합입니다. L1 norm에 의해 도출되는 거리를 L1 distance 또는 Manhattan distance로 표현할 수 있습니다. 여담으로, L1 distance는 Rectangula..
-
유용한 한 문장
[LaTeX] 큰따옴표, 작은따옴표 올바르게 작성하는법
LaTeX을 사용하여 논문을 작성하던 도중, 따옴표 관련된 작성법이 독특하여 여러분과 공유하면 좋을 것 같아 포스팅합니다. 여는 작은따옴표 작성하는법 : ` (ex. `안녕하세요.) 닫는 작은따옴표 작성하는법 : ' (ex. 안녕하세요.') 여는 큰따옴표 작성하는법 : `` (ex. ``안녕하세요.) 닫는 큰따옴표 작성하는법 : '' (ex. 안녕하세요.'') 이를 활용해서 문장을 작성한 예시는 다음과 같습니다. 작은따옴표 활용 : `안녕하세요.' 큰따옴표 활용 : ``안녕하세요.''
-
유용한 한 문장
슈타켈베르크(Stackelberg) 모형 이란?
슈타켈베르크 모형은 과점시장이론에서 사용되는 용어로, 우선 과점시장의 개념을 가지고 있어야 함 과점시장 : 3개 이상(2개일 경우에는 복점이라고 칭함)의 기업이 공급자 역할을 하는 시장을 의미함 또한, 산출량과 가격에 있어 기업간 (강한)상호의존적인 관계를 가지는 것을 특징으로 함 과점시장에서 기업들이 독자적 행동을 할 때 여러 모형으로 분류할 수 있는데, 그 중 하나가 슈타켈베르크 모형임 슈타켈베르크 모형 : 과점시장의 어떤 기업은 산출량에 대해 선도적인 역할을 함으로써 자신에게 유리한 상황을 만드려고 한다는 가정으로 시작함 선도자인 기업은 추종자인 상대 기업의 반응을 미리 짐작하고, 그것을 고려하여 본인의 이윤이 가장 커지는 산출량을 선택하게 됨 두 기업이 모두 선도자가 되려는 경우에는 잘못된 반응곡..
-
무선 & 이동통신 이야기
채널 부호화 (Channel Coding) 및 오류 제어 [1]
. 안녕하세요 에이치비킴 입니다. 이번 포스팅에서는 채널 부호화(이하 채널 코딩)에 대해서 알아보도록 하겠습니다. 우선 채널 코딩에는 다음과 같은 기법들이 활용되고 있습니다. 1. 선형 블록 부호 (Linear Block code) 1) 순환 부호 (Cyclic code) 2) 순환 덧붙임 검사 (CRC: Cyclic Redundancy Check) - CRC algorithm 2. 길쌈 부호 (Convolutional code) 3. 터보 부호(Turbo code) 4., 5. 는 다음 포스팅에서 다룰 예정입니다. 4. 인터리버 (Interleaver) 5. ARQ 기법 (Automatic Repeat Request) 1) SAW ARQ (Stop-and-Wait ARQ) 2) GBN ARQ (Go-B..
-
무선 & 이동통신 이야기
채널 부호화 (Channel Coding) 및 오류 제어 [2]
. 안녕하세요 에이치비킴 입니다. 이번 포스팅에서는 채널 부호화(이하 채널 코딩)에 대해서 알아보도록 하겠습니다. 우선 채널 코딩에는 다음과 같은 기법들이 활용되고 있습니다. 1. 선형 블록 부호 (Linear Block code) 1) 순환 부호 (Cyclic code) 2) 순환 덧붙임 검사 (CRC: Cyclic Redundancy Check) - CRC algorithm 2. 길쌈 부호 (Convolutional code) 3. 터보 부호(Turbo code) 1., 2., 3. 은 이전 포스팅에서 다루었습니다. 여기를 눌러주세요. 채널 부호화 (Channel Coding) 및 오류 제어 [1] . 안녕하세요 에이치비킴 입니다. 이번 포스팅에서는 채널 부호화(이하 채널 코딩)에 대해서 알아보도록 ..