본문 바로가기
728x90

분류 전체보기22

[성균관대 데이터사이언스융합학과] 심산장학금 어느덧 석사 과정 1기 중간고사를 마치고 후반부로 접어들었다. 매년 비슷한 시기에 공지되는 심산장학금 대상 메일이 왔다. 일반대학원 학과마다 다를 것 같으나, 데이터사이언스융합학과는 신입생 대상 장학금을 인원 수대로 균등분배하는 듯 하다. 이것이 성적장학금과 관련이 있는지는 모르겠으나, 일단 첨부된 사진의 금액 만큼 학기말에 장학금이 나오나보다. 연구활동계획서는 사실 1기생에게 크게 바랄 것이 없어 보이기 때문에, 입학 원서에 제출한 연구계획서를 불러와 진척된 내용이 있으면 보강해서 제출했다. 그나저나 마지막 줄을 보고 크게 상심했다... 22만원 꽁돈이 생기는 줄 알고 그 돈으로 모니터나 하나 장만하려고 했건만 ㅠㅠ 학자금대출 내돈내산 학생은 눈물을 머금고 장바구니에서 모니터를 뺀다... 2025. 5. 5.
가마우지 / 대장천생태습지 🐦 물속의 사냥꾼, 가마우지를 만나다집 근처 대장천 생태습지를 산책하던 중 검은 깃털을 가진 새 한 마리가 물속으로 잠수하는 모습을 보았다. 그 우아한 동작에 매료되어 잘 찍어서 살펴보니, 처음에는 기러기인줄 알았으나 그 새는 바로 '가마우지'였다.📸 가마우지의 외형과 특징가마우지는 전체적으로 광택 있는 검은색 깃털을 가지고 있으며, 부리 주위에는 노란색 피부가 드러나 있습니다. 특히, 매년 1월경에는 허리 양쪽에 흰 얼룩무늬가 생기고, 머리와 목에 흰색의 장식 깃이 나타나 더욱 독특한 모습을 보여준다.이 새는 기름샘이 없어 깃털이 물에 젖기 쉬운데, 이는 낮은 부력을 이용해 깊이 잠수할 수 있게 해줍니다. 하지만 물에서 나온 후에는 날개를 펼쳐 깃털을 말리는 모습을 자주 볼 수 있다.🌊 서식지와 .. 2025. 5. 5.
디지몬 어드벤처 25주년 전시회 굿즈/MD상품 후기 태어나서 사본 굿즈 중 가장 만족스러운 디지몬 25주년 전시회 굿즈를 소개하겠다. 물론 오픈런을 하지 않아서 엄청난 인기 품목은 구하지 못했다. 직장인의 비애... 실시간 재고 현황은 아래 링크에서 집계하고 있으니, 복붙해서 수시로 확인해보도록 하자! 디지몬전 25주년 기념 서울 전시 MDhttps://naver.me/xyTXd234 1. 장패드 (25,000원) 내 방문 목적이라고도 할 수 있다. 당연히 오메가몬이 인기 폭발일 줄 알고 걱정했는데, 귀여운 버전이 먼저 품절되더라! 이 굿즈는 오픈일인 5/1일이 아니라 내가 방문한 5/3일에 입고되어서 운 좋게 바로 구할 수 있었다ㅠㅠ 개봉 시 냄새가 약간 나나, 하루 놔두니 거의 사라짐. 2. 랜덤 디지몬 진화 렌티큘러 카드 (3,.. 2025. 5. 5.
디지몬 어드벤처 25주년 전시회 후기 (웨이팅, 컨텐츠, MD상품, 포토부스) [요약]방문일 : 2025.05.03 (토)대기등록시각 : 13:08입장시각 : 14:37총 대기시간: 약 1시간 30분총평 : 전시관 운영 및 컨텐츠 전반적으로 흠잡을 데 없음! 대만족 디지몬 어드벤처 25주년 기념으로 열린 전시회에 다녀왔다. 25주년 기념이라고 영화(ㄱ-)도 나오고, 전시회도 하는 걸 보며 반다이에서 그래도 어른이들을 위해 꾸준히 무언가를 내준다는 것에 감사할 따름이다. 처음 전시회 소식을 접한 3월에는 디지몬 컨텐츠가 생겼다는 자체만으로 황송해서 전시회 내용에는 기대를 안 했었다. 그래도 전시가 다가올수록 홍보도 많이 하고, 무엇보다 MD리스트를 사전에 공개했는데, 종류도 많고 퀄리티도 좋아보여서 MD에 대한 기대가 커졌다. "MD는 후기와 함께 따로 글을 작성할 예정" 전시 시.. 2025. 5. 5.
[딥러닝] 경사하강법 딥러닝에서의 학습은 순전파와 역전파를 통해 connection weight을 업데이트하는 과정으로 나타난다. 이 과정에서 connection weight을 어떻게 하면 '잘' 업데이트 할 수 있을 것인가에 대한 다양한 기법이 제안되었다. 그 중 가장 기본이 되는 원시적인 학습 기법이 경사하강법$(Gradient\,Decent\,Method)$이다. 경사하강법이란, Error함수$(loss\,funtion)$을 구성하는 weight들이 이루는 공간에서, loss function을 최소화하는 w 값을 찾기 위해 한번의 epoch에 각 weight를 얼마나 업데이트할 것인가를 해당 시점의 기울기를 통해 찾는 알고리즘이다. 예를 들어 아래와 같은 공간이 NN의 loss function이라고 해보자.첫 지점으로 .. 2025. 4. 9.
[딥러닝] 활성화함수$(2)$ 활성화함수$(1)$에서는 분류문제 해결을 위한 NN에서 기본적으로 사용되는 활성화함수 중 시그모이드 함수의 필요성과 단점에 대해서 알아보았다. 계속해서 시그모이드 함수의 단점을 해결하기 위해 제안된 다양한 활성화함수에 대해서 알아보자. [다양한 활성화함수]1) ReLu 시그모이드 함수의 기울기 소실 문제를 야기하는 가장 큰 원인은 gradient의 미분계수가 추가됨에 따라 곱의 꼴이 늘어나는 것이었다. 그런데 이 문제에 집중하여 곱의 꼴을 잘 살펴보았더니, combination term 중 절반 이상이 시그모이드의 미분값 $(y)$$(1-y)$로 인해 발생하는 term인 것이 확인되었다. 이런 배경 하에 시그모이드와 비슷한 성질을 가지면서 미분 시 곱의 꼴이 나오지 않는 아래와 같은 ReL.. 2025. 4. 5.
728x90