Markdown 수식추가 Markdown 추가 네이버 스크립트 구글 스크립트

이 책은 알라딘에서 중고 책으로 구매한 것이다. 알라딘에서 책을 살 때 파는 사람의 코멘트(?)가 달려 있는게 있는데 이것의 경우 '창업을 시작하기에 앞서 정신적으로 많은 도움이 되었던 책이네여. 한번쯤 읽어볼만한 책입니다. 3/2' 이라고 적혀있었다. 이 코멘트가 마음에 들어 구입하게 되었고 읽는데 오래 걸렸지만 좀 더 성숙해질 수 있었던 책이다.

19.6.1 ~ 19.7.21

억울함이 클수록 미래에는 더 성장한다. 한두 번 실패를 거듭한다고 해서 죽지 않는다.  
\-11  

지금이 아니라면 언제? 내가 아니라면 누가? - 적시에 용기를 내라  
\-12  

세계를 변화시키려고 하는 사람은 먼저 자기를 변화시켜야 한다. - 소크라테스  
\-14  

실패는 정체의 이유가 될 수 없다. 스스로 도전하고 결심해야 할 대 용기를 낸다면 전혀 다른 상황을 만나게 된다. 용기는 곧 성공의 자본인 셈이다.  
\-17  

운명은 한 번의 우현한 기회로 바꾸니느 법이다.  
\-18  

시간의 힘을 믿어야한다. 당신이 하는 일에 남들과 다른 점이 있어야 한다.  
\-22  

할 수 있는 한 다른 사람을 선의로 대하라.  
\-22  

젊었을 대 노력하지 않는다면 언제 기회가 오겠는가?  
\-23  

신념을 유지하라. 엄동설한의 추위일지라도 앞으로 나아가는 발걸음을 멈추지 못한다. 노력하면 반드시 기회는 있다.  
\-24  

지금 살아가는 것에 감사하고 행복을 누릴 수 있는 사람이어야 큰 걸음으로 전진해 멋진 내일을 쟁취할 수 있다.  
\-28  

성공은 당신이 얼마나 많이 노력하느냐에 달린 것이 아니라 당신이 무엇을 하느냐에 달려있습니다.  
\-31   

일할 때는 목표에 집착하는 용기가 필요하고 상황에 따라 융퉁성 있게 대처하는 것도 필요하다.  
\-31  

일을 적게하고 싶다면 게으를 수 있는 방법을 생각해 내야 하고, 이를 위해서는 나름의 경지가 요구된다.  
\-33  

오늘 힘들고 내일 더 고통스러우면 모레에는 아름다운 성과를 거둘 수 있다.  
\-34  

내가 깨달은 최고의 성공우너칙은 절대 포기하지 않고 용기 있게 앞으로 나가야 한다는 것이다. 끊임없는 쇄신과 돌파가 필요하다-35  

방향을 찾을 때까지 자신을 돌파하라. 무엇을 하든 끈기가 필요하다.  
\-35  

포기는 최대의 실패다.  
\-36  

성공의 길은 항상 험난하다.  
\-38  

포기에 저항하려는 믿음이 크면 클수록 성공의 확률도 더 커진다.  
\-41  

집중하지 않으면 성공하지 못한다.  
\-41  

매일 목표를 바꾼다면 최후에 남는 것은 헛수고 뿐이다.  
\-44  

목표는 인생의 나침반이다.  
\-58  

찹업을 하려면 먼저 꿈이 있어야 한다.  
\-61  

창업은 가장 성공한 사람이 아니라 가장 적합한 사람을 찾아내는 일이다.  
\-61  

성공한 사람들은 명확한 목표와 그 방향으로 나아가려는 굳은 마음을 가지고 있었다.  
\-65  

"당신이 말하는 것이 모두 맞도 다른 사람도 동의한다고 해서 결국 얻어지는 것이 무엇인가? 그것보다는 당장 무엇을 할지 아는 것이 필요하다.  
\-67  

세월은 당신의 피부를 주름지게 하는 것에 불과하지만 열정을 잃으면 영혼이 늙은 것이다.  
\-74  

열정은 중요한 정신적 재화다.  
\-75  

능력과 창의로 투자자를 설득시키는 것보다 자부심으로 모든 사람을 설복하는게 낫다.  
\-77  

매번 나쁜 일이 생겨도 견뎌 내기만 하면 더 강해질 수 있다. 나는 기대가 클수록 실망도 크다. 불운에 저항하는 능력이 강해지면 진짜 자신감이 생겨난다.  
\-79  

결과가 어떠할지라도 창업자는 머리를 숙여서는 안 된다.  
\-80  

이상과 목표를 잡고 흔들림 없이 나아간다면 결국 인생에서 결실을 얻게 된다.  
\-84  

성공은 잠시일 뿐이고 그 뒤에 지출하는 대가는 아주 클 것이다.  
\-86  

미래를 예측하는 가장 좋은 방법은 미래를 창조하는 것이다.  
\-89  

부를 얻고 싶다면 진정으로 유효한 방법은 돈을 얻는 것이 아니라 돈을 버는 방법을 장악하는 것이다.  
\-91  

많은 사람이 좋아한다는 말은 많은 사람이 할 수  있다는 뜻도 되기 때문이다.  
\-93  

자기의 출신을 선택할 수 없으나 후천적인 노력으로 자기를 변화시킬 수는 있다.  
\-96  

당신이 하늘에서 호박이 굴러떨어지기를 기다리면 그 기회는 연원히 도래할 수 없다.  
\-96  

기회는 기다리면 오는 것이 아니라 쟁취하는 것이다. 성공한 사람의 태도는 언제나 적극적이지만 실패한 사람은 항상 소극적이다.  
\-98  

어던 태도를 선택하면 당신의 인생은 그러한 모양으로 만들어진다. 이것이 더 많은 잠재력을 발휘하고 좋은 에너지를 끌어들여 높은 성과를 낼 수 있도록 해 주었다.  
\-99  

남자의 재능은 용모와 반비례할 때가 많다.  
\-99  

싫은 일을 억지로 하며 사는 인생은 재미가 없습니다.  
\-103  

세상은 불공평하고 그것을 바꾸는 것은 불가능하다. 하지만, 행복은 스스로 찾을 수 있기 때문에 행복을 찾을 수 있다.  
\-103  

모든 성공은 실패를 수반할 수 있다. 따라서 실패로부터 교훈을 얻어야 한다. 그래야만 성공으로 나아갈 수 있다.  
\-106  

기회는 저절로 주어지지 않는다. 능력이 있어야 눈 깜짝할 사이에 지나가는 기회를 잡을 수 있다.  
\-106  

도처에 기회가 있다. 기회를 발견할 수 있는 눈을 갖고 있느냐 없느냐가 관건이다.  
\-108  

좋은 기회를 잡는 것만으로 반은 성공한 것이다. 당신 주변에 숨겨진 기회를 잡아라!  
\-109  

기회를 놓치지 마라. 때는 다시 오지 않는다.  
\-109  

사람이 기회를 놓치는 것은 대부분 기회가 오지 않아서가 아니다. 기회가 왔는지를 알지 못하기 때문에 와도 잡지 못하는 것이다.  
\-112  

인생에서 후회는 필요 없다. 후회하지 않기 위해서라도 반드시 기회를 잡아야 한다.  
\-112  

적당한 시기를 만나면 바로 결정해라. 그래야 성공할 수 있다.  
\-114  

목표는 보이지도 않고 만져지지도 않는다.  
\-118  

사람들은 목표가 어려워서 실패하는 것이 아니라 희망이 없어서 실패한다.  
\-118  

이 세상에서 절대로 의존하지 말아야 할 것이 관계이다.  
\-132  

작은 상인은 지식에 의존하고 큰 상인은 덕에 읜존한다.  
\-132  

1등의 자리에 있을 때는 어디로 가야할 지 모릅니다. 2등과 3등은 뒤따라오면 되지만 1등은 이정표가 없기 때문이다.  
\-137  

기업은 사회적 책임을 부담해야 한다.  
\-139  

잘 만들고 강하게 만들면 자연히 번창하게 됩니다. 너무 속도가 빠르면 오히려 함정에 빠져버릴 수가 잇습니다.  
\-141  

자기 발전에 적합한 시장을 선택해야만 한다. 대기업과 중견기업과 부딪치는 것을 피해 시장 공백을 보충하면서 전체적인 열세를 지엽적인 열세로 변화시켜야 한다.  
\-144  

CEO는 두 가지 상황에서만 존재한다. 실패했을 때에는 "이것은 나의 잘못이다' 라고 말해야 하며, 성공했을 때에는 '우리의 성공이다'라고 해야 한다.  
\-146  

영재는 필요 없다. 일반인이면 된다. 무엇이든 잘할 수 있는 엘리트는 괴물이 되는 것이다.  
\-149  

리더는 확고부동하게 자기의 신념을 견지해야만 한다.  
\-150  

중요한 것은 리더가 어떻게 리더십을 발휘하느냐이다.  
\-151  

리더의 자질  
 1) 사람을 만들 줄 안다.  
 2) 목표가 명확한다.  
 3) 강한 정신력이다.  
 4) 격려다.  
 5) 일부 권력을 하급자에게 넘겨줄 수 있어야 한다.  
 6) 창의적으로 전진해야 한다.  
 7) 소통이다.  
\-152  

훌륭한 리더는 자신이 아닌 부하를 모범 근로자로 만드는 것이다.  
\-153  

리더가 먼지 필요로 하는 능력은 사람을 잘 알고 적재적소에 쓰는 것이다.  
\-156  

리더는 통솔자이지 모범 근로자는 아니기 때문이다.  
\-157  

리더십은 한 기업과 조직을 평온하게 발전시킬 수 있는 능력이라고 해석할 수 있다.  
\-158  

관리자가 성공하기 위해서 필요한 능력 중 15%는 전문적 기술이고, 85%는 인간관계를 처리하는 기술이다.  
\-163  

좋은 그룹을 설립하기 위한 조건.  
1) 명확한 공동의 폭표  
2) 적극적인 분위기  
3) 좋은 시스템  
\-164  

자기의 발전방향을 찾은 후에 눈앞의 이익에만 급급하지 말고 착실히 앞으로 나가는 일이 중요하다.  
\-171  

기업은 한 사람의 역량에 의존해 발전할 수 없다. 기업이 필요로 하는 것은 집단지성이다.  
\-173  

존중과 신임이 직원의 열정이나 창조성을 불러 일으키는 원동력이다.  
\-175  

사람을 잘 쓰고 의심하지 말아야 한다.  
\-176  

아래 사람이 당신을 능가해야지 당신은 비로소 제대로 된 리더가 된 것이빈다.  
\-177  

모든 사람은 잠재력이 있습니다. 중요한 것은 리더가 그 잠재력을 찾아내는 것입니다.  
\-178  

완벽한 사람은 없습니다. 조직은 사람과 결합할 때 비로소 완벽하게 됩니다.  
\-181  

책임감의 크기가 무대의 크기를 결정한다.   
한 사름을 책임지면 좋은 사람, 200~300명을 책임지면 사장, 13억의 사람을 책임지길 원하면 총서기감이다.  
즉, 능력과 책임은 다르다.  
\-185  

회사의 성공 요인은 사장의 결정이 아니라 직원의 소양과 자질이다.  
\-192  

미련한 사람은 입으로 말합니다. 똑똑한 사람은 머리로 말합니다. 지혜로운 사람은 마음으로 말합니다.  
\-192  

주제를 다듬어 몇마디만으로 상대방을 설득해야 한다. 기업의 리더로 간결하고 응축된 말을 할 수 있다면 직원들에게 큰 도움과 격려가 된다.  
\-193  

좋은 말 하는 법  
1) '하지만'대신에 '만약'을 사용해라.  
2) '필요 없어' '하지 마라'라는 말을 쓰지 마라  
3) '꼭' '반드시'라는 단어를 쓰지 마라  
4) '원래', '처음부터'라는 말을 사용하지 마라  
\-197  

리더가 많은 말을 할 필요는 없다. 직원들의 감정에 소소하게 신경을 쓰면 놀라운 효과를 얻을 수 있다.  
\-201  

성공한 사람의 뒤에는 피와 땀이 있듯이 성공한 기업에는 반드시 강하고 유능한 직원들이 있다.  
\-202  

감사 문화 속에서 일하는 직원이 기업에서 최대의 가치를 창출해 낼 수 있지 않을까?  
\-205  

가장 어려울 때 내미는 온정은 평생 마음속에 기억될 수 있다.  
\-208  

신용은 한 사람의 가장 중요한 기질이다.  
\-210  

능력은 당신의 위치를 정하며 인품은 그 위치에서 얼마나 있을 수 있는지 정한다.  
\-212  

성공과 공부는 별 상관이 없다.  
\-216  

한 사람의 성공 여부는 EQ와 관련이 있습니다만 공부와는 가디지 관계가 없습니다.  
\-216  

젊은이들은 책을 읽는 것도 중요하지만, 사람들과 친밀한 관계를 형성하는 것이 더 중요합니다.  
\-217  

시간은 유한합니다. 스스로의 인생을 한 권의 책으로 삼고, 이미 넘긴 책장은 바로 잊어버리세요.  
\-219  

지식을 쌓는다는 이유로 시간을 지체했다.  
\-221  

창조성은 지식을 쌓는 것에 있지 않으며, 재빠르게 돌아가는 두뇌가 필요하다  
\-221  

창조하는 일은 기다려서 되는 것이 아니다. 풍부한 지식을 지닐 때까지 기다렸다가 새로움을 창조하는 것이 아니다.  
\-221  

사회라는 책을 공부하라.  
\-222  

창업가가 적게 공부한 것을 걱정할 필요는 없지만 사회를 열심히 배우지 않는다면 두 발로 딛고 일어설 수 가 없을 것이다.  
\-225  

사회에 진출해서 더욱 깊이 연구하고 공부해야 한다.  
\-226  

이론과 실천이 결합되어야 생존과 발전에서 우위를 점할 수 있다.  
\-228  

물구나무를 서서 세계를 바라보면 그것은 다르게 다가올 것입니다.  
\-228  

통념에 구속되지 말고 자기 자신을 찾으라  
\-231  

큰 용기를 내야 하고 새로운 시련을 받아들일 수 있어야 한다.  
\-231  

시자에서 경쟁 국면에 직면햇을 경우 만약 다른 각도에서 사고하고 다른 위치에서 볼 수 있다면 확연하게 다른 결과를 초래하게 된다.  
\-234  

변화가 오기 전에 변하라  
\-234  

새로운 사고와 아이디어가 없으면 도태될 수밖에 없다.  
\-239  

신기술 개발보다 중요한 것은 신시장을 발굴하는 것이다. 기술은 인간을 통제할 수 없다. 인간이 기술을 조종하는 것이다.  
\-239  

끊임없이 변화하는 이 시대에는 변화가 오기 전에 자신이 변화해야 도태되지 않는다.  
\-240  

자신이 만든 '모방의 굴레'에서 벗어나 부지런히 사고하고, 능숙하게 관찰하고, 용감하게 혁신을 단행하는 사람이 되어야 한다.  
\-247  

상대방이 진심으로 졌다고 인정해야 당신이 이긴 것이다. 이런 경쟁을 해야 한다.  
\-249  

기회를 선점하는 사람이 시장을 장악할 수 있다.  
\-255  

공격은 최고의 방어다.  
\-255  

속도가 첫째라면 완벽은 둘째다.  
\-259  

최대의 적수는 자기 자신입니다.  
\-259  

적이 있어야 경쟁력이 살아난다.  
\-262  

인생에서 진정한 적수가 없는 것을 두려워하라  
\-264  

인내는 나약한 게 아니고 양보도 아니다.  
\-267  

힘을 다해 자기를 향상시키고 이상을 위해 고통을 참아내는 사람이 결국 큰 일을 이룬다.  
\-269  

잘못된 집행을 할지라도 우유부단하거나 결정하지 않는 것보다 낫다. 집행하는 과정에 잘못을 고칠 수 있는 시간과 기회가 있기 때문이다.  
\-270  

위대한 목표와 구상이 있어도 강력한 실행이 없다면 결국 탁상공론에 지나지 않는다.  
\-272  

실행력을 갖추면 성공이 현실로 다가온다.  
\-274  

먼저 옳은 일을 하고 그 뒤에 정확하게 하라  
\-275  

기회가 도처에 널려 있다고 하더라도 CEO는 안전을 더 살펴야 한다. 재난은 안전할 때 예방해야 하기 떄문이다.  
\-277  

작은 회사의 전략은 살아남는 것이다.  
\-277  

남은 자본이 이썽야 돈을 벌 수 있는 것이다.  
\-281  

먼저 돈을 벌고 자기의 회사가 살아남게 해야 신념과 목표를 이룰 수 있다.  
\-282  

제휴와 협력은 전략의 지름길  
\-282  

전략을 세우는데 최고의 금기는 모든 것을 잘하려는 것입니다. 반드시 중요한 일을 설정하고 이를 이뤄내야 합니다. 모든 자원을 한곳에 집중해야 승리할 수 있습니다.  
\-282  

기업이든 개인이든 능력에는 한계가 있다. 다른 살마고 동업을 통해 시장 지배권을 강화하는 게 필요하다.  
\-286  

잘못 앞에서는 체면이 아무 가치가 없다.  
\-289  

성공을 갈망하는 사람은 실수를 두려워하지 않는다. 실수가 나타났을 때 숨기려 하지 않는 자세는 성공을 획득하는 길이다.  
\-292  

자본을 말할 필요는 없고 자본으로 돈을 벌어야 한다.  
\-292  

자본이 속박의 도구로 쓰이면 안 된다. 대신 비즈니스의 동력이 되어야 한다.  
\-296  

돈을 가두지 않고 미래의 이윤을 기다린다.  
\-297  

자본은 지키는 것이 아니라 돈을 벌기 위한 것이다.  
\-297  

돈을 벌려면 먼저 돈을 가볍게 생각하라  
299  

세상에서 제일 우둔한 사람은 스스로 총명한 사람이라고 여기는 것이다.  
300  

더 높은 사회적 지위와 재산을 획득하려면 자기의 신용도를 향상시켜야 한다. 말에 신뢰가 잇고 약속을 지키면 비로소 자기 사업의 기초도 단단해진다.  
306  

근검은 부끄러운 일이 아니다.  
309  

절약을 아는 사람, 자기의 금전적 욕망을 절제할 줄 아는 사람이 더 많은 재산을 소유 할 수 있다.  
310  

존을 버는 것을 첫 번째 목표로 하지 마라  
311  

사람이 즐거워하는 것은 많은 것을 소유해서가 아니라 고민이 없기 때문이다.  
316  

회사는 주권이 분산되어야지만 다른 주주와 직원이 더욱 신뢰와 열정을 갖게된다.  
319  

당신이 아무리 대단해도 일생은 3만 6,000일의 여정이다. 이 세상을 떠날 때는 후회가 없어야 한다. 만일 사회가 많은 일을 하도록 기회를 준다면 그것을 즐겨라.  
322  

인생은 사람답게 사는 것이지 일을 위한 게 아니다  
323  

평생 기억해야 할 것은 착실하고 유쾌한 사람이 되야한다는 것이다  
328  

일을 돈을 벌기 위한 임무라고 생각하지 말고 자신의 일을 삶의 일부로 여기며 즐겁게 일해야 즐겁게 살아갈 수 있다.  
333  

다른 사람의 장점을 기억하고 단점은 잊어라  
334  

앞으로 다른 사람이 당신에게 했던 지적을 마음속 깊이 기억하고 다른 사람의 칭찬은 잊어라  
334  

인생은 이렇다. 앞으로 한 번 나아가면 두 번 선택할 기회는 없다.  
342  

다른 사람의 교활함에 속는 것이 아니라 자신의 탐욕에 속는 것이다  
343  

무엇을 취하고 무엇을 버려야 하는지를 아는 것이 바로 큰 지혜인 것이다  
344  

모든 것을 손에 쥐고 있을 수는 없다. 항상 선택해야 하고, 그것으로 지치지 않게 돌보아야 한다.  
349  

리더는 일을 하는 사람이 아니라 일을 시키는 사람이다  
371  

차이가 두려운 것이 아니라 차이가 있다는 것을 모르는 게 두렵다  
378  

실력은 실패가 쌓여서 된 것이다  
379  

성공은 반드시 팀워크에서 나오는 것이다  
380  


 딱 오늘까지 오래 걸리면서 읽은 책이다. 오래 걸린 이유는 변명이겠지만 많은 일들도 있었고 사실 책에 관심이 적었다. 
 읽으면 재밌지만 또 시작하기에는 좀 힘든.. 그런 것이였다.  
 책에 대해서는 위의 내용들이 말해줄 것이고 창업에 대한 생각이 더 들었지만 확신은 할 수 없었다. 
 책을 읽으면서 창업에 대한 생각도 하게 되었지만 마윈의 철학에 대해서 살펴볼 수 있었다. 
 사람의 대하는 것과 인생을 살아가는 법에 대한? 물론 이것이 무조건 맞거나 무조건 틀리다는 것은아니다. 
 사람마다 생각하는 것이 다르고 틀린 것은 없고 다른 것이기 때문이다. 오늘 이 책을 읽음으로써 큰 변화는 
 없겠지만 그래도 한 걸음 한 걸음 나아가는 것이다.

'Book' 카테고리의 다른 글

[책 리뷰] 달과 6펜스  (0) 2019.08.12
날마다 천체물리  (0) 2019.07.28
이지성의 꿈꾸는 다락방  (0) 2019.07.18

Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

본 논문 리뷰는 v1 : 4/6/15 (NIPS 2015)이 아닌 v3 : 6/1/16 을 기준으로 작성하였습니다.

Abstract

 이때 당시 SOTA는 SPPnetFast R-CNN 입니다. bottleneck 같은 region proposal(RP) 계산을 사용합니다. 본 논문에서는 Region Proposal Network(RPN)을 소개합니다. RPN이란 전체 이미지를 CNN시킨 feature map을 공유하는 네트워크로 RP를 cost 부담 없이 사용할 수 있다고 합니다. (Free Time and Accuracy)

 RPN은 Fully Convolutional Network로 각 지점에서 Bbox 와 classifier을 동시에 예측할 수 있다고 합니다. 여기서 중요한 점은 Fast R-CNN이 detection 하는 것을 그대로 가져왔으며 단지 바뀐점은 RP를 RPN을 이용하는 것입니다. 결국, 이 논문은 RPN과 Fast R-CNN을 feature map을 공유하는 한 개의 네트워크로 합친 것입니다.

 성능은 뒤에서도 설명하겠지만, backbone으로는 VGG-16을 사용하고 PASCAL VOC 2007 test set에 대한 결과로 79.2%mAP가 나왔습니다.(train set은 VOC 2007+2012 trainval을 사용 하였습니다.) 속도는 모든 단계를 포함해도 이미지당 198ms이 나온다고 합니다.

1. Introduction

  1. R-CNN - Fast R-CNN - Faster R-CNN으로 이어져 왔습니다.

  2. Selective Search(SS)의 경우 RP를 찾는 유명한 방법이지만 이미지당 2초씩 계산 시간이 걸리기 때문에 real-trime object detection에는 적합하지 않습니다.

  3. EdgeBoxes라는 이미지당 0.2초가 걸리는 방법이 나왔지만 결국엔 detection 부분에서 여전히 오래 걸립니다.

    • 이유로는, RP를 찾는 부분에서 GPU가 아닌 CPU를 사용해야합니다. GPU로 재구현하는 방법이 존재합니다.
    • 하지만 이 또한 down-stream detection network를 무시하는 것과 sharing computation(공유 계산...? 계산한 것을 공유한다는 뜻인 것 같습니다.)를 하지 않는 문제가 있습니다.
  4. 이 논문에서는 위의 문제들을 우아하게(?) 알고리즘적으로 해결했다고 합니다

    바로, RPN입니다. 즉, 테스트 시간에 convolution들을 공유한다면 가장 끝에서 계산 시간이 줄어들 것이라고 합니다. (여기선 이미지당 10ms가 걸린다고 합니다.)

    Fast R-CNN에서 feature map이 RP로 사용될 뿐만 아니라 RP를 생성하는 것을 봤습니다. 따라서, 막 feature map이 만들어졌을 때, RPN을 feature map으로 쌓아서 만들고 각 지점을 정형화된 grid로 나눈다면 bbox와 classifer을 동시에 할 수 있을 것이라고 생각했습니다. 즉, RPN은 fully convolutional network와 비슷한 것이며 detection proposal들을 만드는 것을 end-to-end로 학습할 수 있다고 합니다.

 RPN은 SPPnet이나 Fast R-CNN과 같은 일반적인 방법들과는 달리 다양한 scale과 aspect ratio에서도 RP를 효과적으로 예측할 수 있도록 만들어졌다고 합니다.

  1. 일반적으로 (a)나 (b) 같은 방법으로 다양한 scale과 aspect ratio에서 RP를 예측한다고 합니다.

  2. 본 논문은 (c)와 같은 방법으로 Archor라는 다양한 scale과 aspect ratio를 가진 참고 박스를 소개합니다.

  3. 즉, 여러 크기의 이미지를 열거하거나(a) 많은 scale 또는 aspect ratio들을 사용하는 것(b)보다 단일 scale의 이미지를 사용하는 것(c)이 효과적이며 빠릅니다.

    본 논문의 RPN은 RP를 위한 fine-tuning과 object detection을 위한 fine-tuning을 선택적으로 학습시킬 수 있습니다. 또한, 빠르게 수렴합니다.

    본 논문은 포괄적으로 평가하였는데,

  4. PASCAL VOC detection benchmarks에서 SS와 RPN을 비교 ( with Fast R-CNN)
    => SS와 비교해 proposals들을 생성하는데 단지 10ms만 걸렸다.

  5. very deep network의 문제인 시간 부하를 모든 단계를 다 포함해도 5fps의 성능이 나온답니다. 물론, 속도와 정확도를 버리지 않고도 작동함. (GPU를 사용할 경우)

  6. MS COCO dataset에 대해 결과를 연구하였다.

  7. ILSVRC 와 COCO 2015 대회에서 ImageNet detection, ImageNet localization, COCO detection, 과 COCO segmentation 에서 1등을 했다고 합니다.

  8. deep 해질수록 더 높은 정확성을 가진다고 합니다. [resnet][18]

  9. 본 논문의 첫 논문인 v1 이후로 3D object detection, part-based detection, instance segmentation, image captioning, 그리고 Pinterests 에서 수용하고 사용했다고 합니다.

 결국, "많은 결과를 토대로 Faster R-CNN은 실용적이며, object detection 정확도를 높이는 방법이다" 라고 합니다.

2. Related Work

2-1. Object Proposals

 19, 20, 21 에 object proposal에 대한 포괄적인 survey와 비유가 있다고 합니다. (자기들도 설명이 귀찮았나 봅니다...) 크게 두 가지 경우가 있습니다.

  1. 픽셀들끼리 묶는 SS, CPMC, 그리고 MCG이 있습니다.

  2. 슬라이딩 윈도우 기법을 사용하는 objectness in windowsEdgeBoxes가 있습니다.

    Object Proposal 기법은 SS를 이용한 object detection, R-CNN, 그리고 Fast R-CNN에서 사용되었습니다.

2-2. Deep networks for Object Detection

 R-CNN은 기본적으로 CNN들의 end-to-end로 학습을 하여 배경 또는 사물들인지 RP를 통해 판별합니다. 또한, 기본적으로 classifier로 동작하지 object bound을 예측하지는 않습니다. (물론, bbox 회귀는 제외합니다.)
따라서, RP 모듈에 의해서 성능이 좌지우지됩니다. (참고 문서 : comparisons)

 Overfeat, Deep neural networks for object detection, Scalable object detecton using deep nueral networ, Scalable high-quality object detection 과 같은 논문에서는 deep network를 object bbox에 사용하는 것을 제안합니다.

 Overfeat 기법에서 fully-connected 층은 단일 사물의 위치를 boxing하는 예측을 위해 학습됩니다. 즉, 한 image안에 여러개의 사물이 있을 경우 각 사물마다 bounding box를 생성하는 역활입니다. 또한, 여러 사물을 찾는 convolutional 층을 조정하는데 사용됩니다.

 MultiBox 기법( 위에서 Overfeat를 제외한 논문들 )은 fully-coonected 층을 Overfeat 기법처럼 다수의 사물을 동시에 예측하는 네트워크로 사용하며 RP를 추측합니다. 또한, MultiBox proposal 네트워크는 fully-connected 층을 사용하기 보단 단일 이미지 모음 또는 다중 이미지 모음을 사용합니다. (보통 224x224)
 또, proposal 과 detection 네트워크의 feature를 공유하지는 않습니다.

 ** 아마도, overfeat의 장점과 MultiBox 장점을 다 가진다는 것을 표현하고 싶었던 것 같습니다.**

 convolution들의 계산을 공유하는 Overfeat, SPP, Fast-RCNN, 7, 그리고 semantic segmentation 들은 시각 인식 분야에서 정확도 같은 효율성에 관심을 가졌다. Overfeat 기법은 classfication, localization, 그리고 detection을 위해 이미지 피라미드로 부터 convolutional feature를 계산하였다. SPP의 feature map을 공유하는 adaptively-sized pooling, 30 그리고 semantic segmentation 또한 효과적인 region 기반의 object detection 이다.

밑의 사진은 SPP에 대해 짤막하게 설명한다. 즉, featurn map을 crop과 resize를 통해 detection 하는 것입니다.

 마지막으로 Fast R-CNN은 feature map을 공유하여 end-to-end detector 학습이 가능하며 정확도와 속도가 높다.

3. Faster R-CNN

 Faster R-CNN은 2개의 모듈로 이루어져있습니다. 첫번째 모듈은 PR을 만드는 deep fully convolutional network 이며, 두번째 모듈은 Fast R-CNN detector 처럼 PR을 사용하는 것입니다.

전체 시스템은 밑의 그림 처럼 통합된 네트워크가 단일입니다.

 그 당시 뉴럴 네트워크에서 유명했던 attention 메카니즘을 RPN에서 볼 수 있다.

3-1 에서는 RPN의 구조와 요소 를 소개할 것이며 3-2에서는 feature shared 모듈을 개발하는 알고리즘을 볼 것입니다.

3-1. Region Proposal Networks

 RPN의 입력은 이미지이며 출력은 사물 점수를 포함한 사각형의 object proposal 셋이다. 즉, classifier와 bbox가 된 것입니다. 본 논문에서 fully convolutional 층을 semantic segmentation의 fully convolutional 층처럼 만들었습니다.
또한, 두 네트워크를 같은 convolutional 층들로 사용했는데, 그 이유는 Fast-RCNN처럼 계산을 공유하기 위해서입니다. 실험에서는 ZFVGG-16을 사용했다고 합니다.

 RP을 뽑아내기위해, 최초의 convolutional 층들의 마지막 단에서 작은 네트워크로 분리했습니다. (위의 그림에서 proposals 부분) 이 작은 네트워크는 feature map을 n x n으로 나눈 window를 입력으로 가집니다. 각 슬라이딩 윈도우는 33에서 처럼 더 작은 차원의 feature와 맵핑됩니다. 이 feature은 다시 또 두개의 fully-connected 층들의 입력으로 들어가는데 box-regression layer(reg) 와 box-classification layer(cls)이다. 본 논문에서 n은 3으로 정하여 사용하는데, ZFVGG-16에서 잘 작동하기 떄문이다.

 나눠진 네트워크는 위의 그림처럼 생겼다.
 미니 네트워크는 슬라이딩 윈도우 만듦새를 사용하기 때문에 fully-connected layer들은 모든 부분 위치에서 공유된다. 즉, 위의 사진에서 저 부분에서 나온 feature들이 cls 와 reg에서 공유한다는 뜻이다. 이 구조는 자연스럽게 n x n conv layer를 거쳐 두 개의 1 x 1 conv layer로 구현된다.

3-1-1. Anchors

 각 슬라이딩 윈도우 위치에서 동시에 여러 RP들을 예측할수 있는데 최대 k개 입니다. 따라서 reg 층에서는 k개의 박스들에서 4k개의 박스 요소 출력을 가지며, cls 층에서는 각 proposal에서 사물일 확률과 배경일 확률 총 2k개의 출력을 가집니다. 이 k개의 proposal들은 anchor라고 부르는 k개의 참고 박스를 매겨변수로 가집니다. 앵커는 슬라이딩 윈도우의 중심좌표를 가지며, scale과 aspect ratio와 관련이 있습니다. default 값으로 3개의 scale과 3개의 aspect ratio인데, 각 슬라이디 윈도우마다 k=9개의 앵커를 가지는 것입니다. 보통 feature map은 W x H(~2,400)이므로, 결국 W x H x K의 앵커들을 가집니다. ex) if w = h = 2400, k = 9 ==> 51,840,000‬개의 앵커를 가집니다.

Translation-Invariant Anchors

 짧게 설명한다면 이 앵커라는 개념은 본 논문에서 중요하다고 합니다. Multibox 방법은 k-means를 사용해서 800개의 앵커들을 만들어 낸다고 합니다. 하지만 이 앵커들은 사물이 바뀌면 제대로 작동이 안 된다고 합니다. 즉, 사물 당 800개 정도의 앵커들이 필요하다는 것입니다. 본 논문의 경우 9개의 앵커만 필요합니다. 이것은 모델의 크기를 줄이는 역할을 합니다. 밑의 표를 살펴보면 차이가 많이 납니다.

content Multibox Faster-RCNN
fully-connected output layer size (4+1) x 800 (4+2) x 9

 본 논문에서는 Faster-RCNN에 VGG-16 모델을 사용하고 Multibox에 GoogleNet을 사용했습니다. 음... 같은 모델을 사용했으면 좋을 거 같은데... 따라서 결과적으로

content Multibox(GoogleNet) Faster-RCNN(VGG-16)
parameters 1536 x (4+1) x 800 512 x (4+2) x 9

 따라서... 파라미터가 적어서 PASCAL VOC 같은 작은 데이터 셋에서 오버 피팅이 발생을 줄인다고 합니다.

Multi-Scale Anchors as Regression References

 (a) DPM 이나 CNN 기반은 방법들은 이미지 당 featuremap이 피라미드 형태입니다. 이미지들을 여러 크기로 만들고 그 이미지 마다 feature map들이 존재한다. 따라서 각 이미지 마다 계산을 해줘야 합니다. 이 방법은 유용하지만 시간이 너무 오래 걸립니다.
 (b) feature map에서 많은 크기와 비율의 슬라이딩 윈도우를 사용하는 방법입니다. 예를 들면, DPM에서는 비율이 다른 슬라이딩 윈도우를 사용하는데 5 x 7 그리고 7 x 5를 사용합니다. 이 방법은 (a)보다 성능이 좋아 다른 object detection에서 사용됩니다.

위의 방법들과 비교해서 앵커 피라미드를 사용하는 것이 매우 효과적입니다. cls와 reg에서 앵커 박스들을 참조합니다. 오직 앵커 박스는 단일 크기의 feature map에 적용됩니다. 즉, 1개의 슬라이딩 윈도우당 k개의 앵커 박스가 존재하는 것입니다.
 본 논문에서는 3가지의 크기와 3가지의 비율을 가진 총 9개의 앵커 박스를 사용했습니다. 크기의 경우 128x128, 256x256, 512x512을 사용했으며 비율의 경우 2:1, 1:1, 1:2를 사용했습니다.

따라서, 다양한 크기의 앵커 박스를 사용함으로써 다른 cost(공간이든 시간이든) 없이 특징들을 공유할 수 있습니다.

3-1-2. Loss Function

 RPN의 학습을 진행할 때, 각 앵커에 positive or negative의 라벨을 달아줍니다. positive 라벨에는 두 가지 경우가 있는데

  1. Ground-Truth box와 가장 높은 IoU를 가지는 경우

  2. IoU가 0.7 보다 높은 경우

    이런 경우 한 개의 GT box가 여러개의 앵커에 positive 라벨을 달아줄 수 있습니다. 보통 2번째 조건까지하면 posivive 샘픔가 나오는데 positive 샘플이 없는 특별한 경우가 발생할 수 있습니다. 따라서 밑의 조건을 더 추가합니다.

  3. IoU가 0.3 보다 낮을 경우 negative 라벨을 달아준다.

    마지막으로 0.3<IoU<0.7의 샘플들은 학습 데이터로 사용하지 않습니다.

    이런 방법들로 objective function은 Fast R-CNN의 multi-task loss를 따릅니다. 밑은 이미지당 가지는 손실 함수의 정의입니다.

i : batch 당 앵커의 인덱스.
pi : 앵커 i가 사물로 인식한 확률. (score)
pi*: Ground-Truth 라벨. ( 1: positive, 0: negative)
ti: bbox의 좌표(보통 중앙의 x, y, w, h)
ti*: Ground-Truth의 bbox 좌표
Lcls: classification loss. 사물인지 배경인지(둘 score)
Lreg: Regression loss. 다시 밑의 수식으로 나뉨.
$$
Lreg(ti, ti_) = R(ti - ti_) $$
R: robust한 손실 함수.(smooth L1)
pi*Lreg: positive일 때 작동한다는 뜻.

각각 cls와 reg의 출력은 {pi}, {ti}로 이뤄져 있다. Ncls 와 Nreg에 의해 표준화되며, λ에 의해 균형잡힌 가중치가 나옵니다.
보통 Ncls = 256, Nreg = ~2,400, λ = 10 으로 지정되어 있습니다.

밑의 수식은 bbox regression에서 t들에 대한 정의입니다.

  • x,y,w,h 는 중심의 x,y좌표와 박스의 너비와 높이입니다.

  • 0, 0a, 0* 는 각각 예측한 박스, 앵커 박스, GT 박스 의 값를 뜻합니다.

    따라서 이 수식은 앵커 박스를 통해 GT 박스로 근접해 가는 것으로 볼 수 있습니다.

    그렇지만 Resion of Interst(RoI: 관심 영역) 기반의 방법들인 R-CNN이나 Fast R-CNN과는 다른 방법으로 bbox regression을 얻었다. 기존의 방식들은 임의의 RoI 크기를 사용했으며 모든 region이 같은 regression weight를 사용한다. 보통 3 x 3 크기의 feature map들을 사용한다.

    본 논문은 다양한 크기들에서도 detection 하기 위해 k 개의 bbox regressor를 학습시켰다. 각 regressor은 단일의 크기와 비율을 가지는데 k 개의 regressor은 가중치를 공유하지 않는다. 따라서 앵커들로 구현하여 feature들이 다른 크기나 비율을 가지더라도 detection 할 수 있는 것이다.

3-1-3. Training RPNs

 RPN은 backpropagation 과 Stochastic Gradient Descent(SGD : 확률 경사 하강법) 을 통해 end-to-end 학습이 가능하다. Fast-RCNN과 같이 이미지의 중심으로 샘플링을 한다. 각 mini-batch는 많은 positive 와 negative 앵커가 포함된 이미지가 생기게 합니다. 모든 앵커들을 손실 함수로 최적화가 가능하지만, negative 샘플들로 치우치게 됩니다.
대신에, mini-batch의 손실함수로 사용하기 위해 무작위로 positive 와 negative 샘플들을 1:1 비율로 256개 앵커를 뽑아냅니다. 만약, positive 샘플이 128개(50%)보다 적다면, negative 샘플들로 채웁니다.

 무작위로 모든 layer들을 생성하며 가중치는 0-평균 Gaussian ditribution(표준 편차 0.01)로 초기화 합니다. (물론 RPN에서의 conv layer 입니다.)
 모든 layer들은 ImageNet classification의 pre-training된 데이터로 초기화합니다. ZF net의 모든 층 그리고 conv3_1 와 학습된 VGG net으로 조정합니다.
PASCAL VOC 데이터 셋에서 learning rate로는 0.001 (mini-batch 60k), 0.0001 (mini-batch 20k)으로 사용한다. momentum은 0.9, weight decay는 0.0005를 사용한다. 구현은 Caffe로 함.

3-2. Sharing Features for RPN and Fast R-CNN

 위의 내용까지는 PR을 위한 RPN이였다. 실질적으로 Detection을 하는 부분에서는 Fast-RCNN과 동일하다. 밑의 박스친 부분이 Detection 부분이다.

 RPN과 Fast-RCNN 둘다 독립적으로 훈련되어 각자 다른 방법으로 conv layer들을 수정한다. 따라서 이 두 네트워크가 따로 학습하는 것이 아니라 conv layer들을 공유하게 하기 위해서 밑의 3가지 방법을 소개 합니다.

3-2-1. Alternating Training

 이 방법은 본 논문에서 사용된 방법으로 먼저 RPN을 학습하고 proposal들을 사용해 Fast R-CNN을 학습하는 것입니다. 즉, Fast R-CNN은 RPN으로 초기화된 네트워크를 사용하며 이 단계를 반복하는 것입니다.

3-2-2. Approximate Joint Training

 RPN과 Fast R-CNN 네트워크를 병합하여 위의 사진에서 검은색으로 박스친 부분처럼 하나의 네트워크로 만드는 것입니다. SGD 단계가 반복할 때마다, 순전파 단계에서 PR을 생성할 때 Fast R-CNN detector가 학습하는 것처럼 고치고 미리 계산하는 것입니다. 역전파 단계에서는 RPN과 Fast R-CNN 둘다 손실이 결함된 형태로 역전파가 이루어집니다.
 이 방법은 구현이 쉽지만, proposal 박스들의 좌표 값을 무시하고 근삿값을 사용한다. ( 이 부분은 잘 모르겠습니다..)
이 방법으로 실험해본 결과 alternating training 결과와 거의 근접했지만 학습시간이 25~50% 더 걸린다고 합니다.

3-2-3. No-approximate Joint Training

 RPN으로 예측한 bbox를 함수의 입력으로 사용하는 것입니다. 즉, Fast R-CNN의 RoI pooling layer은 conv feature들을 입력을 받는데, 여기서 예측한 bbox 또한 입력으로 넣습니다. 이 방법은 이론적으로 Approximate Joint Training의 문제를 해결하는 것처럼 보입니다.
 하지만, 이것은 proposal 박스들의 좌표 값을 무시하는 문제를 해결하지 않습니다. 따라서 RoI pooling layer을 preopsal 박스들의 좌표 값을 추출할 수 있게 해야합니다. 이 문제는 사소한 문제인데 RoI warping을 사용하면 됩니다. 이 방법은 15 논문에서 잘 설명하고 있습니다.

3-2-4. 4-Step Alternating Training

 본 논문에서는 Alternating optimization을 통해 4 단계 학습 알고리즘을 사용합니다.

  1. RPN을 먼저 학습한다. ImageNet-pre-trained 모델로 초기화하고 미세 조정을 거친다.

  2. step-1의 RPN에서 만들어낸 proposal들을 사용하여 Fast R-CNN을 학습한다. 물론, Fast R-CNN또한 ImageNet-pre-trained 모델로 초기화한다. 아직까지는 두 네트워크가 conv layer들을 공유하지는 않는다.

  3. detector network를 학습된 RPN으로 초기화 한다. 여기서 conv layer들을 공유할 수 있게 수정하고 오직 RPN의 특별한 layer들만 미세 조정한다. 여기서 두 네트워크가 conv layer들을 공유한다.

  4. 공유하는 conv layer들을 유지하면서 Fast R-CNN의 특별한 layer들만 미세 조정한다. 여기서 두 네트워크는 같은 conv layer들을 공유하고 통합된 네트워크를 형성한다.

    실험 결과로, 위의 단계를 더 많이 반복해도 결과에 영향은 줄만큼은 아니였다고 합니다.

3.3 Implementation Details

 먼저 SPP나 Fast R-CNN 처럼 단일 크기의 이미지를 사용하고 600pixel로 재조정했다고 합니다. 물론, 여러 크기의 이미지를 사용하면 정확도는 올라가지만 그만큼 속도가 더 떨어지기 때문에 손해입니다.

 ZF나 VGG의 경우 마지막 단에서 1/16으로 줄어들며, 일반적인 PASCAL 이미지의 경우 500x375 크기인데 약 10pixel 정도로 줄어든다고 합니다. 그리고 작은 stride를 쓸수록 정확도가 높아진다고 합니다.

앵커의 경우 3개의 크기인 128², 256² 그리고 512² 를 사용하고 비율의 경우 1:1, 1:2, 2:1을 사용합니다. 앵커 파라미터 선택은 그렇게 중요하지 않습니다.
 이미지 경계를 지나가는 앵커 박스는 조심해서 다뤄야 합니다. 학습을 진행하는 동안은, 앵커들끼리 교차 경계가 생기는 것은 무시합니다. 따라서 loss에 영향을 끼치지 않습니다. 일반적으로 1000 x 600 이미지는 약 20000개의 앵커를 가지고 있습니다. 이럴 경우, 이미지당 6000개의 앵커가 훈련에 사용됩니다. 이렇게 되면 학습을 진행하면서 지속적으로 앵커들이 쌓이고 나중에는 활용할 수 없을 정도가 됩니다.
 그러나, 테스트를 하며서 fully convolutional RPN을 전체 이미지에 사용합니다. 이것으로 이미지 경계를 자른 교차 경계 proposal box들이 생깁니다. 몇몇의 RPN preoposal들은 서로 많이 겹쳐있습니다. 많이 겹쳐있는 박스들을 없애기 위해서 non-maximum suppression(NMS)라는 것을 cls을 기준으로 적용시킵니다. NMS의 IoU threshold를 0.7로 고치는데 약 2000개의 PR만 남게 됩니다. 즉, cls score가0.7 이하인 것은 다 지우는 겁니다. NMS 이후에, top-N로 순위가 매겨진 PR을 사용합니다. 이로써 Fast R-CNN 학습에는 2000개의 RPN proposal들이 사용되지만, 실제 테스트 시간에서는 몇 개의 proposal들만 사용됩니다.

Experiments

 실험 결과에 대해서는 따로 언급하지 않겠습니다.

Conclusion

 RPN으로 효과적이고 정확하게 RP를 만들 수 있습니다. detection 네트워크에 conv feature들을 공유하면서 RP 단계가 거의 자유롭게 할 수 있습니다. 본 논문의 방법은 통합되고, 딥 한 object detection을 실시간 시스템을 가능하게 합니다. 즉, RPN으로 RP 질을 높일 수 있으며 이로 인해 전체 object detection 정확도가 올라갑니다.

안녕하세요. 저는 보통 책을 읽을 때 이렇게 좋은 글귀나 관심이 가는 글귀를 스크랩합니다. 적든 많든 올리도록 하겠습니다!! 이번 책은 그 유명한 R = VD에 대한 내용이며 이 책을 읽으면서 다시 한번 큰 꿈을 가지고 싶다는 생각이 들었습니다.
한번 쯤 읽는 것도 좋을 것 같습니다.
19.4.14 ~ 19.5.28

별처럼 빛나는 젊음의 때에 꿈을 믿는다는 것은 얼마나 위대한 일인가  
그러나 그보다 더 위대한 일은 인생의 황혼 무렵에 이렇게 말할 수 있는 삶을 사는 것이라네  
나의 꿈은 이루어졌노라.  
-11  


생생하게 꿈꾸면 이루어진다. Real = Vivid Dream  
-13  

마치 물 위의 기름처럼 세상 사람들의 생각 위에 항상 떠 있어야 합니다.  
-27  

세상 사람들이 실천하지 않는 R=VD 공식을 실천하라. 그러면 원하는 꿈을 이룰 수 있다.  
-28  

매일 탈진할 정도로 미래를 그려라  
-33  

성공하고 싶다면 성공을 생생하게 꿈꾸어라. 그러면 운명처럼 기회가 찾아온다.  
-41  

한번 실패한 사람이 계속 실패하게 되는 가장 근본적인 이유는 그 사람이 못나가거나 때를 잘못 만나서가 아니다. 실패 VD로 더 큰 실패들을 지속적으로 불러들이기 때문이다.  
-47  

성공은 당신의 VD가 결정한다.  
-51  

"만일 당신이 성공한다는 것을 확실하게 안다면, 지금 무엇을 하겠는가?"  
-71  

가장 중요한 것은, 원하는 것을 얻은 자신의 모습을 생생하게 그리는 것이다.  
-81  

엔드류 카네기의 부 멘토링  
1. 원하는 돈의 액수를 명확하게 정한다.  
2. 그 돈을 얻기 위해서 무엇을 할 것인가를 결정한다.  
3. 그 돈이 내 손에 들어오는 날짜를 분명하게 정한다.  
4. 그 돈을 벌기 위한 상세한 계획을 세우고 즉시 행동에 들어간다.  
5. 위의 4가지 원칙을 종이에 적는다.  
6. 종이에 적은 것을 매일 두 차례, 아침에 일어났을 때와 밤에 잠들기 전에 큰 소리로 읽는다.  
-82  

상상력은 인간의 몸에 큰 영향을 미친다. 인간이 의식적으로든 무의식적으로든 병을 지속적으로 상상하면 병에 걸리고, 건강을 지속적으로 상상하면 건강해진다.  
-96  

비현실적인 행동은 비현실적인 결과를 만들어낸다.  
-123  

위기가 기회이며, 벼랑 끝에 선 자가 가장 강한 법이다.  
-124  

당신은 스스로 꿈꾸는 것만 얻을 수 있다.  
-135  

인생의 진리는 단순하다. 당신은 당신이 상상한 것만 얻는다. 그러니 창조적이고 건설적인 상상을 하라.  
\-140  

거대한 성공을 거두기 위해서는 성공하고야 말겠다는 강렬한 열망이 당신의 잠재의식 밑바닥까지 스며들어야한다.  
-161  

당신이 진심으로 그렇게 느끼고, 말하고, 행동하면, 진짜로 그렇게 된다.  
-175  

거대한 성공을 거두기 위해서는 성공하고야 말겠다는 강렬한 잠재의식을 현실로 글어올려야 한다.  
-179  

노력만으로는 노력 이상의 것을 얻을 수 없다. 상상하고 실현하라  
-281  

나를 가로막은 것은 언제나 나 자신이었다.  
-284  

지금은 성공의 꿈을 꾸어도 나중에는 성자의 꿈을 꾸어라  
-314  

나눔은 우리 삶의 목적인 '사랑'의 시작이자 끝이다.  
-315  

이 것을 다읽고 나도 꿈을 꾸는 사람이 되어야겠다는 생각이 들었다. 포기하지 않고 내 꿈을 가지고 나아갸야겠다. 부정적인 꿈은 절대로 도움이 안되니깐 생각하지도 말자!

'Book' 카테고리의 다른 글

[책 리뷰] 달과 6펜스  (0) 2019.08.12
날마다 천체물리  (0) 2019.07.28
알리바바 마윈의 12가지 인생강의  (0) 2019.07.21

 

 

안녕하세요. 저는 유형준입니다. 현재 한국해양대학교 제어자동화공학부 IT융합공학과에 재학 중입니다. 개발자로서 꿈을 가지고 있습니다.

이 블로그는 개인적인 공부 혹은 관심사에 대해서 정리를 하고 있습니다. 개발 관련 내용 뿐만 아니라 제가 읽은 책, 취미, 영화 등을 올릴 것입니다. 제가 잘못된 지식을 가지고 있다거나 더 좋은 방향이 있다면 댓글로 남겨주시면 참고하여 보다 더 나은 지식 공유를 하겠습니다.

감사합니다.

Interesting

  • AI분야에 관심이 있으며 특히 Vision 분야에 관심이 있습니다.
  • Reinforcement Learning에도 관심이 있습니다. (부족하지만...)
  • 책 읽는 것을 좋아합니다. 소설, 인문학, 공학, 철학 등 관계없이 좋아합니다.

Career

ETRI Internship ( 2019.7 - 2019.8 )
  • [ETRI] tensorpack으로 backbone을 구성해 성능 테스트 진행 중.
  • [ETRI] Object Detection 관련 Paper Review
Korean Marinetime and Ocean University ( 2014.3 - 2020.2 )
  • [KMOU] 2014년 3월 입학 ( IT공학과 컴퓨터정보공학과 )
  • [KMOU] 2020년 2월 졸업 ( 제어자동화공학부 IT융합공학과 )
Gwangju Institute of Science and Technology ( 2020.2 - 2022.2 )

 

 

 

 

Participation activity

2019 Ocean ITS 아이디어 해커톤 대회 ( 2019.5.24 ) - 장려상
  • [2019 Ocean ITS] "노인과 복지를 위한 무료 대여 보행보조기 제작"
  • [2019 Ocean ITS] 데이터 분석을 맡음. [github]
2019 전반기 융합 캡스톤 디자인 작품
  • [2019 전반기 융합 캡스톤] "AI를 이용한 자동 회전 선풍기 모듈 제작"
  • [2019 전반기 융합 캡스톤] Object Detection 분야를 맡음. [github]
2019 전반기 전공 연구회 작품
  • [2019 전반기 전공 연구회] "STT를 이용한 발음 교정"
  • [2019 전반기 전공 연구회] Google Cloud Platform을 이용한 software 개발
2019 전반기 캡스톤 디자인 작품
  • [2019 전반기 캡스톤] "SLAM 기술을 이용한 수확물 운반용 자율주행 AGV"
  • [2019 전반기 캡스톤] Gazebo를 이용한 시뮬레이션 구축
2018 후반기 캡스톤 디자인 작품
  • [2018 후반기 캡스톤] "360도 캠을 이용한 자율주행RC카 제작"
  • [2018 후반기 캡스톤] Object Detection 분야를 맡음.
2018 마린 엔지니어링 학회 후기학술대회
  • [2018 마린 엔지니어링] "기계 학습을 이용한 실내위치 추정"
  • [2018 마린 엔지니어링] 제 1저자로 참가하여 sklearn을 사용해 실내 위치 추정함.
제7회 창의메이커스필드 '4차 산업혁명시대 대학생 아이디어 경진대회' - IITP 센터장상
  • [제7회 창의메이커스필드] "선박 지킴이"
  • [제7회 창의메이커스필드] Object Detection 분야를 맡음.
제 5회 대한민국 융합 해커톤
  • [제 5회 대한민국 융합 해커톤] "360도 캠을 이용한 선박 감시 플랫폼"
  • [제 5회 대한민국 융합 해커톤] Object Detection 분야를 맡음.
6차 K-해커톤
  • [6차 K-해커톤] "아웃 바디". 키넥트 센서를 이용한 외부 근육 측정 및 전시
  • [6차 K-해커톤] 데이터 전처리 부분을 맡음.
2018 전반기 창업 캠프
  • [2018 전반기 창업 캠프] WI, 카카오톡 플러스 친구로 제작하는 대학 알리미 서비스
  • [2018 전반기 창업 캠프] 제품 기획을 맡음.

+ Recent posts