일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 청년빅데이터캠퍼스
- 충청남도 청년네트워크 위원회
- 항해학부
- 펭귄몸무게예측대회
- 선박직원법
- YGPA 공공데이터 활용 비즈니스 공모전
- 해상교통법
- 여수광양항
- HSK
- 해양빅데이터
- 여수광양빅데이터경진대회
- 인생
- 해양수산빅데이터활용공모전
- 딥러닝
- 선원법
- 빅데이터경진대회
- AI
- 머신러닝
- 해사법
- 유니스트
- 해양수산부
- 데이콘
- 해양수산빅데이터
- fastai
- 조선빅데이터
- 한국해양대학교
- 빅데이터
- 해양수산빅데이터경진대회
- 현대중공업빅데이터경진대회
- 항해사
- Today
- Total
목록전체 글 (56)
경 탁
지난 4년간의 승선생활을 마무리 하고 배를 내리기로 결심했다. 일상생활의 부재 그리고 갇혀있다는 것이 심적으로 피곤했다. 다만 아쉬운 것은 그거 빼고는 적성에 맞았다는 것이다. 만일 내가 조금 더 가만히 있는 것을 좋아하는 성격이었다면 아마 캡틴이 되지 않았을까 싶다. 이번배 약 7개월 승선하고 8월 말에 하선하여 현재 육지에서 휴가를 보낸지 3개월이 다되어간다. 그동안 한 일이 꽤(?) 많다. 일단 강원도 여행을 약 2주 정도 다녀왔으며 다녀온 뒤로 쭉 자격증 공부를 하고 있다. 중간에 어머니와 함께 일본 여행도 다녀왔다. 지금까지 딴 자격증으로는 컴활 2급 필기, 한국사 2급 그리고 약 1주일 뒤에 있을 ADSP (4년전에 떨어졌었음) 아 또 바리스타 자격증을 취득하기 위해서 평생학습관에서 공부하고 ..
0. 그동안의 일상 나는 작년 3월 (2022년 3월)에 승선을 하여서 12월 중순 쯤 하선하였다. 운이 좋게도 너무나도 편한 항해를 하였고 겨우 3항차 만에 10개월 가량 되는 시간이 후딱 지나갔다. 첫번째 항차때 같이 타고 있던 이항사가 사직을 하여서 운좋게 이항사로 조기 진급하였다. 우연의 일치인지는 몰라도, 훈련소 수료 후 바로 승선이 예정되어있었는데 때마침 오미크론이라는 코로나 바이러스가 유행 중이었고 우리 방에도 유행이 퍼졌다. 그래서 바로 격리에 들어갔고 훈련소 같은 방 인원 5명 중 3명이 코로나에 걸리는 초유의 사태가 발생하였다. 나는 바로 승선을 하기로 예정되어있었고 무증상 기간이 긴 코로나일 수 있을거라 생각하여 바로 인사팀에 연락을 하였다. 그래서 인사팀에서는 혹시나 내가 코로나 양..
본 포스팅에서는 개/고양이 이미지를 통해 두 동물을 분류하는 모델링을 해보도록 하겠습니다. 1. 데이터 준비 from fastai.vision.all import * path = untar_data(URLs.PETS) 데이터를 다운받게 되면 지정한 곳에 데이터가 저장되게 됩니다. 2. DATABLOCK pets = DataBlock(blocks = (ImageBlock, CategoryBlock), get_items=get_image_files, splitter=RandomSplitter(seed=42), get_y=using_attr(RegexLabeller(r'(.+)_\d+.jpg$'),'name'), item_tfms=Resize(460), batch_tfms=aug_transforms(size=..
금 포스팅에서는 MNIST 데이터를 통해 간단한 모델링을 하고 손실함수를 통해 파라미터를 조정하는 내용을 다룰 예정입니다. 본격적인 코드에 들어가기 앞서, 파라미터를 조정하는 '경사하강법'에 대해 짚고 넘어갈까 합니다. 0. 경사하강법 파라미터란 변수를 의미합니다. 예를 들어 중학교때 배운 기초적인 함수 1차 함수에서 Y = ax + b // 여기서 a와 b를 파라미터라고 칭합니다. 보다 정확도가 높은 함수를 만들기 위하여 파라미터를 조정합니다. 본 포스팅에서는 임의로 '초기화'할 예정입니다. 그리고 그 값으로 예측하고 정답과 예측값의 차이를 측정합니다. 여기서 쓰이는 것이 '손실함수' 입니다. (저번 포스팅에서 다룬 L1 / L2 역시 손실함수의 일종입니다.) 그리고 그 그레디언트를 계산하고 이를 통해..
본 포스팅은 FAST-AI의 코드에 관한 부분을 중점적으로 다룹니다. 본 포스팅에서 다룰 내용은 4장 MNIST 분류기에 관한 내용입니다. 이 분야에서는 워낙 많이 쓰이는 데이터이기도 하고, 그래서 이미 많은 분들이 아실거라고 생각합니다. 이 책에서 밑바닥부터 다룬 부분이기도해서 내용이 살짝 난해하고 많긴 하지만 여러번 공부하고 정리하면 이해가 될듯 싶습니다. 1. 서론 및 문제제기 path = untar_data(URLs.MNIST_SAMPLE) path.ls() threes = (path/'train'/'3').ls().sorted() sevens = (path/'train'/'7').ls().sorted() 일단 MNIST 데이터를 다운받아줍니다. .ls() 는 그 폴더에 어떤 파일이 들어있는지 판..
본 포스팅은 한빛미디어에서 나온 fastai & pytorch가 만나 꽃피운 딥러닝에 대한 책에 대해 다룹니다. 예전에 사이킷런으로 머신러닝을 공부하다가 PYCARET을 알고 나서 충격 먹었던 기억이 납니다. 점점 갈수록 낮아지는 M/L의 진입장벽, 그때 들었던 생각은 딥러닝에 대한 이런 자동화 라이브러리는 없겠지하는 생각이었습니다. 승선 중 우연히 공부에 대한 자극을 받고자 책을 찾았는데 , 그때 찾았던 도서가 바로 이 책입니다. 딥러닝에 대한 자동화 라이브러리도 벌써 시중에 나왔구나 하는 충격과 함께 공부하리라 다짐했었는데, 선박이라는 고립된 환경, 잘안되는 인터넷 때문에 공부하다가 말았던 기억이 납니다. 잡소리는 이쯤하고 앞으로 본 서적에 대한 공부와 함께 코드 그리고 문제점 & 해결점을 포스팅할까..