Full text search for "2019"
- AuxCAM . . . . 3 matches
* Pycon 2019 LRP tutorial[* https://github.com/OpenXAIProject/PyConKorea2019-Tutorials/blob/master/LRP/PyConKorea2019-LRP-tutorial-presentation.pdf]
- FrontPage . . . . 2 matches
|| [:index_2012 2012] || [:index_2016 2016] || [:index_2019 2019] || [:index_2023 2023] || [:index_2025 2025] || [:arduino_list 아두이노 관련] ||
- MoniWiki/UserPreferences . . . . 1 match
* 작성일: 2019년 11월 18일
- TechTemplate . . . . 1 match
* 작성일: 2019년 11월 18일
- TechTemplate$ . . . . 1 match
* 작성일: 2019년 11월 18일
- advaced_VAEs . . . . 1 match
* 작성일: 2019년 11월 18일
- arXiv_1911 . . . . 4 matches
We trained models over a grid of α and λ values on a dataset drawn from 30,000 seconds during a locked segment on March 6, 2019 (GPS time 1,235,870,000 to 1,235,900,000). To create the training dataset, we randomly sampled 7,500 glitch-free points in time (as described in Sec. IIB) and 7,500 of the 30,141 Omicron glitches during that period. This subsampling was performed to allow the dataset to fit in available memory. For both datasets, we also ignored any samples falling too close to the beginning or end of a 64-second raw frame file. After preliminary data reduction as described in Sec. II A, the number of channels considered was 38,235. We then generated the 382,350 statistical features for each point, as described in Sec. II B. We then trained an elastic net logistic regression model independently for each α,λ pair on this training set. The training was performed using the Scikit-learn package [35].
우리는 2019년 3월 6일(GPS 시간 1,235,870,000에서 1,235,900,000) 잠긴 세그먼트 동안 30,000초에서 가져온 데이터 세트에서 α 및 λ 값 그리드를 통해 모델을 훈련했습니다. 훈련 데이터 세트를 생성하기 위해 우리는 7,500개의 글리치 프리 시점(섹션 IIB에 설명된 대로)과 해당 기간 동안 30,141개의 오미크론 글리치 중 7,500개를 무작위로 샘플링했습니다. 이 서브샘플링은 데이터세트가 사용 가능한 메모리에 맞도록 수행되었습니다. 두 데이터 세트 모두 64초 원시 프레임 파일의 시작 또는 끝 부분에 너무 가까운 샘플도 무시했습니다. 섹션에 설명된 대로 예비 데이터 축소 후. II A, 고려된 채널 수는 38,235개였습니다. 그런 다음 Sec. II B. 그런 다음 이 훈련 세트의 각 α,λ 쌍에 대해 독립적으로 탄력적 순 로지스틱 회귀 모델을 훈련했습니다. 교육은 Scikit-learn 패키지를 사용하여 수행되었습니다[35].
For the O3 analysis, we trained a new classifier on a training dataset drawn from 10,000 seconds during April 10, 2019 (GPS times 1,238,900,000 to 1,238,910,000). We used a smaller amount of time for the training period for this analysis because the results shown in Fig. 5 indicate that 10,000 seconds of training data is sufficient for good performance. Similar to the ER14 training dataset, we sampled 2,500 glitch-free points in time and 2,500 of the 8,098 Omicron glitches during that period, chosen at random, and we ignored any samples falling too close to the beginning or end of a 64-second raw frame file. After preliminary data reduction as described in Sec. II A, the number of channels considered is 38,327, so the training and test datasets have 383,270 features.
O3 분석을 위해 2019년 4월 10일(GPS x 1,238,900,000에서 1,238,910,000) 동안 10,000초에서 가져온 훈련 데이터 세트에 대해 새로운 분류기를 훈련했습니다. 그림 5와 같은 결과가 좋은 성능을 위해서는 10,000초의 훈련 데이터가 충분하다는 것을 나타내기 때문에 이 분석을 위해 훈련 기간에 더 적은 시간을 사용했습니다. ER14 훈련 데이터 세트와 유사하게, 우리는 무작위로 선택된 2,500개의 글리치 프리 시점과 해당 기간 동안 8,098개의 오미크론 글리치 중 2,500개를 샘플링했으며 64초 원시 데이터의 시작 또는 끝에 너무 가까운 샘플은 무시했습니다. 프레임 파일. 섹션에 설명된 대로 예비 데이터 축소 후. II A에서 고려되는 채널의 수는 38,327이므로 훈련 및 테스트 데이터 세트에는 383,270개의 기능이 있습니다.
- autoencoder . . . . 2 matches
* 작성일: 2019년 10월 23일
앞 장에서 autoencoder의 구조와 의미에 대해서 알아보았다. 구조와 의미는 알았는데 이것을 어디에 사용할가? Variational autoencoder로 확장되면서 다양한 분야에서 여러가지 목적으로 사용되어지고 있지만 단순 autoencoder만을 가지고 응용할 수 있는 분야는 많지 않다. 가장 대표적인 응용분야를 꼽자면 차원축소(Dimensionality reduction)가 되겠다.[* Urwa Muaz. (25 Jul 2019). <https://towardsdatascience.com/autoencoders-vs-pca-when-to-use-which-73de063f5d7>.]
- batch_normalization . . . . 1 match
Batch Normalization[* ''Sergey Ioffe, Christian Szegedy'', '''"Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift"''', ICML (2015) <https://arxiv.org/abs/1502.03167>]은 2015년 ICML에 발표되어 지금까지 많이 사용되고 있는 기술이다. 딥러닝의 학습 속도 향상을 위해 사용되는 기술이지만 속도 향상뿐만 아니라 다양한 이슈에 적용되고 있기 때문에 하나씩 정리해 보려고 한다. 이와 유사한 Self-Normalizing Neural Networks (NIPS,2 2017)[* https://pod3275.github.io/paper/2019/03/27/SELU.html]논문도 있는데 이건 다음 기회에...
- cross_entropy . . . . 1 match
* 분포 p, q의 중간 지점을 잡고 각각에서의 거리의 앞으로 표현했다.[* HyeongMin Lee (15 Mar 2018) <https://hyeongminlee.github.io/post/prob002_kld_jsd/> (4 Apr 2019)]
- factorized_vae_and_annealed_vae . . . . 1 match
* 작성일: 2019년 10월 7일
- grad_cam . . . . 2 matches
* 작성일: 2019년 9월 28일
* (2019-09-28) CAM과 Grad-CAM을 비교하는 글 최초 작성
- index_2019 . . . . 2 matches
|| [:index_2012 2012] || [:index_2016 2016] || [:index_2019 2019] ||
- index_2023 . . . . 2 matches
|| [:index_2012 2012] || [:index_2016 2016] || [:index_2019 2019] || [:index_2023 2023] ||[:arduino_list 아두이노 관련] ||
- index_2025 . . . . 2 matches
|| [:index_2012 2012] || [:index_2016 2016] || [:index_2019 2019] || [:index_2023 2023] || [:index_2023 2023] || [:arduino_list 아두이노 관련] ||
- index_list . . . . 2 matches
|| [:index_2012 2012] || [:index_2016 2016] || [:index_2019 2019] ||
- kullback-Leibler_vs_cross-entrypy . . . . 1 match
원문[* Mert Cokluk, (20 Jan 2019) <https://medium.com/@mertcoklukttttt/kullback-leibler-divergence-loss-vs-weighted-cross-entropy-loss-79126dccc8a2>]을 번역하는 수준에서 작성하고 의견을 다는 것으로 구성한다.
- layer_wise_relevance_propatation . . . . 4 matches
* 작성일: 2019년 11월 07일
인공신경망 내지 딥러닝의 동작을 이해하기 위한 연구들은 크게 두 가지로 분류할 수 있다. 첫 번째는 모델 자체를 해석하는 연구이고, 두 번째는 "외 그런 결정을 내렸는지"에 대한 연구이다. [* 공돌이의 수학정리노트. (18 Aug 2019). <https://angeloyeo.github.io/2019/08/17/Layerwise_Relevance_Propagation.html>. (7 Nov 2019).]
- multiprocessing . . . . 1 match
https://hwangheek.github.io/2019/asynchronous-python/
- public_problem . . . . 2 matches
대한민국 육군, 경찰, 해군 등 정부주요 기관을 중심으로 군수용 · 산업용 · 특수임무용에 특화된 드론을 주문 제조하고 있으며, 민수용으로는 농업용, 촬영용, 교육용드론을 제조하고 있다. 또한 2019년 국내최초로 해외에 수출을 하며 국내드론의 글로벌 산업용 드론시장의 문을 열었다.
2019년 개발 완료, 2020년 출시된 유선드론, “T-Dori”는 2020년 가장 주목받는 제품으로 유선을 이용하여 전력을 공급받아, 24시간 비행한다. 촬영, 감시, 인명구조, 서치라이트 드론 등에 활용되고 있다. GCS(Ground Control Station) 탑재, 통제차량은 드론의 관제 및 안전제어 등 다양한 외부환경에서 드론을 효율적으로 통제하고, 실시간 영상수신 및 분석을 통하여 드론을 활용한 공공서비스 분야에서 효율적인 미션 수행을 지원한다.
- pytorch_multiGPU . . . . 1 match
Pytorch를 활용해서 Multi GPU 환경에서 GPU를 100% 활용하기 위한 방법에 대한 자세한 시도[* 당근마켓 팀블러그, Mattew, (mar 28, 2019) <https://medium.com/daangn/pytorch-multi-gpu-%ED%95%99%EC%8A%B5-%EC%A0%9C%EB%8C%80%EB%A1%9C-%ED%95%98%EA%B8%B0-27270617936b>]가 있어서 2020년 2월 18일 기준 PyTorch version 1.4.0에서 어떻게 동작하는지 알아보자.
- r_cran . . . . 1 match
https://blog.zarathu.com/posts/2019-01-03-rmarkdown/
- raspberrypi4 . . . . 1 match
http://blog.servis.co.kr/index.php/2019/01/29/centos7-cockpit/
- stock_study . . . . 2 matches
중국에 현지 공장 인수 (2019년 기준)
http://m.newsway.co.kr/news/view?tp=1&ud=2019111309445189131
- variational_autoencoder . . . . 2 matches
* 작성일: 2019년 10월 28일
* 수정일: 2019년 11월 26일
- work2016_list . . . . 13 matches
[:work2016_list 2019년]
[:work2019_01_list 1월] [:work2019_02_list 2월] [:work2019_03_list 3월] [:work2019_04_list 4월] [:work2019_05_list 5월] [:work2019_07_list 6월] [:work2019_07_list 7월] [:work2019_08_list 8월] [:work2019_09_list 9월] [:work2019_10_list 10월] [:work2019_11_list 11월] [:work2019_12_list 12월]
- work2019_12_list . . . . 13 matches
[:work2016_list 2019년]
[:work2019_01_list 1월] [:work2019_02_list 2월] [:work2019_03_list 3월] [:work2019_04_list 4월] [:work2019_05_list 5월] [:work2019_07_list 6월] [:work2019_07_list 7월] [:work2019_08_list 8월] [:work2019_09_list 9월] [:work2019_10_list 10월] [:work2019_11_list 11월] [:work2019_12_list 12월]
- work2020_09_list . . . . 1 match
* ''Shizhe Chen, Ali Shojaie, Eric Shea-Brown, and Daniela Witten'', '''The Multivariate Hawkes Process in High Dimensions: Beyond Mutual Excitation''', June 18th, 2019, [https://arxiv.org/pdf/1707.04928.pdf]
- work2020_10_list . . . . 1 match
* ''Shizhe Chen, Ali Shojaie, Eric Shea-Brown, and Daniela Witten'', '''The Multivariate Hawkes Process in High Dimensions: Beyond Mutual Excitation''', June 18th, 2019, [https://arxiv.org/pdf/1707.04928.pdf]
- work2020_11_list . . . . 1 match
* ''Shizhe Chen, Ali Shojaie, Eric Shea-Brown, and Daniela Witten'', '''The Multivariate Hawkes Process in High Dimensions: Beyond Mutual Excitation''', June 18th, 2019, [https://arxiv.org/pdf/1707.04928.pdf]
Found 30 matching pages out of 775 total pages
You can also click here to search title.