01/12, Tue

아직은 드라이 해야하는 AI 서비스

저러한 문제가 터지니까 아직까지 (그들이) 드라이하게 만들고 있는 것이다.

현재 공개되어 두들겨 맞은 버전은 습작 수준이 맞다. 예쁘장한 그림까지 넣어서 인격을 부여한 기획이 무리했지.

더 문제가 되는 것은 100억건의 대화를 썼다는 부분인데, 언젠가 그들의 강연에서도 자기들이 카카오도 아니면서 그 많은 대화를 갖고있다고 자랑하던 것이 영 이상했는데... 완성도야 스타트업이니 뭐 하면서 귀엽게 봐달라 하더라도 Data 확보 관련 공격을 받은 부분은 한동안 회복하기 어려울 것으로 보인다 - 결국 바로 서비스가 닫혔다.

스OO은 카카오톡 대화 약 100억건을 기반으로 이XX를 개발, 지난해 12월 출시했다. 여기서 사용된 카카오톡 대화는 2016년 출시된 연O의 과X 앱 이용자들의 대화다. ... 연O의 과X 이용자들은 자신들이 넘긴 정보가 '이루다'에 쓰일지 몰랐다고 주장하고 있다.

카카오나 누구들이 왜 저렇게 안하고 지내겠는가. 늘 이야기하지만 카카오 정도면 가족도 속일만한 내 클론 챗봇 정도 쉽게 만들 수 있을 것이다. 지금 문제는 기술이 아니라 Data와 동의에 있기 때문이다. 크게 보면 비슷한 업종에서 일하는 사람으로서 안타까운 일이다. Data 활용에 대한 규제가 또 얼마나 더 생겨날 것인가.

덧. 십년만에 탈 것을 한국의 H사로 바꿨다. 와우 시절에서도 탈것은 특히 더 가난했었는데... 근데 H의 라이언은 아직 말을 잘 못 알아듣는 것 같더라. 좋아하진 않지만 그래도 아리가 "드라이하게" 잘하는 모양. 기계도 기계고 C가 늘 나보고도 드라이한 사람이 되라고 하는데 아직도 갈 길이 멀다.

01/01, Fri

2021년에는 ...

역시

무엇보다 건강하고(더 많이 달리고),

계속 공부 열심히 하고(올해는 강화학습을...),

(능력 있는?) 좋은 아빠가 되어야지.

작년 연초엔 무얼 썼나 돌아보다가 위 3가지 테마는 변함없겠구나 싶다. ( )를 활용해야지. 회사 업무는 이제 오롯이 Data 분석모듈 리딩과 ML 실무 적용만 업무로 남았다. 변화는 좋은 것, 더 좋은 변화들을 만들어야겠다. 완주와 전문화, 최근 동료에게 나도 모르게 이야기 한 내 직장생활의 방향성이더라. 작은 것들에 연연하지 말아야지.

IMG_8323.jpg

지난 한 해를 봐도 남겨지는 글들은 적네. 2020년은 예년보다 더 알찼다, 참 감사합니다.

12/12, Sat

그의 AI에 대한 근본적 지적이 성립하지 않는 이유

첫째, 대규모 언어처리 인공지능 모델은 엄청난 전력소모를 유발해 지구온난화에 영향을 미침
둘째, 인종차별, 성차별적 언어들이 섞이면서 인공지능이 잘못된 언어를 학습할 위험 있음
셋째, 대규모 언어처리 인공지능 모델은 인간의 언어를 이해하지 못하면서 흉내내는 것에 집중하고 있음
넷째, 대규모 언어처리 인공지능은 인간을 너무 흡사하게 흉내낼 수 있기 때문에 악용될 수 있음
- 게브루? 박사

첫째, 딥러닝이 무식한 접근방법이다보니 현 기술 수준에서 어쩔수 없음
둘째, (사람처럼) 머신러닝도 데이터를 주는 대로 데이터가 나오는 것, 세상 어디에도 평등하며 정치적으로 옳은 데이터나 사람이란 없다고 봄
셋째, 뇌를 흉내내는 것과 뇌를 만드는 것의 차이가 있더라도 그것은 다른 영역인 점, 뇌는 누구에게도 여전히 완전히 이해받지 못하고 있는 것으로 알고 있음
넷째, 그렇게 하자고 만든 것임

위 지적이 구글에서 기각당한 것은
연구의 깊이가 낮으면서 (구글에게) 괜한 노이즈를 만들기 때문이라고 생각한다.

(구글 월급 받으면서 하실 말씀은 아니세요.)

그렇게 이슈가 되고 싶으셨으면 ...
구글이 의도적으로 인종차별, 성차별적 데이터를 주입하고 있다는 음모(Evil Deed?)에 대한 내부고발 정도는 있었어야지.

12/10, Thu

TF_IDF 한 줄로.

TF_IDF는 "한 문서 내 단어 출현 빈도수 / 전체 문서 중 단어 출현한 문서수" concept.
-> 많은 사람들이 두루 하지 않는 행동을 그 사람이 많이 한다면 그의 특징으로 볼 수 있다.

(적용 - 아빠가 해커랭크 10번 접속했고, 전체 샘플 200 중 20 해커랭크 접속자가 있다면, 10/20 -> 0.5, 아들은 2회 접속했다면 0.01, 아빠는 해커랭크 관심자로 볼 수 있음. 주로 log 걸어 처리...)

여기서 NMF로 이어지고 TF_IDF도 조 선생님(감사합니다!)에 한두말씀 보태서 정리해볼 수도 있겠는데 굳이 내 정리까지 궁금해하는 사람이 없을 것이므로...

그리고 그들이 또 설명하지 않는 부분들이 있는데...

11/18, Wed

IMG_8123.jpg

슬라임 한 마리 정도 나와줄 것 같은 아침 조깅길

in omnibus requiem quaesivi, et nusquam inveni nisi in angulocum libro.
about KJLab, 고주현연구소는?


더 많은 이야기들 ...

CHIRPxcq : 55 thousand Greek, 30 thousand Armenian
Amazonnnwfd : consists of the book itself
Speakerhpd : Duke de Montosier

Email Subscription