제387회 국회
(임시회)
과학기술정보방송통신위원회회의록
제3호
- 일시
2021년 5월 27일(목)
- 장소
과학기술정보방송통신위원회회의실
- 의사일정
- 1. 포털 알고리즘 관련 공청회
- 상정된 안건
(10시03분 개의)
의석을 정돈해 주시기 바랍니다.
성원이 되었으므로 제387회 국회(임시회) 과학기술정보방송통신위원회 제3차 회의를 개의합니다.
먼저 지난번 인사청문보고서 채택 때 무리한 의사진행에 대해 사과말씀 드리겠습니다.
그날 밤 많은 생각에 잠 못 이루는 날이었습니다. 평소 제가 정치하며 다짐했던 역지사지라는 말을 스스로가 무시하는 모습이었습니다. 국회는 대화와 타협의 공간이라 생각해 왔습니다. 그런 상임위를 만들고자 노력해 왔으나 그마저도 스스로 무너뜨린 부끄러운 날이었습니다. 위원님들께 사과 문자라도 드리고 싶었지만 조롱당한다 느끼실 수 있으리라 생각되어 보내지도 못했습니다. 오늘 사과가 위원님들께서 입으신 상처가 조금이나마 해소되기를 간절한 마음으로 소망합니다. 다시 한번 깊이 반성하겠습니다. 죄송합니다.
성원이 되었으므로 제387회 국회(임시회) 과학기술정보방송통신위원회 제3차 회의를 개의합니다.
먼저 지난번 인사청문보고서 채택 때 무리한 의사진행에 대해 사과말씀 드리겠습니다.
그날 밤 많은 생각에 잠 못 이루는 날이었습니다. 평소 제가 정치하며 다짐했던 역지사지라는 말을 스스로가 무시하는 모습이었습니다. 국회는 대화와 타협의 공간이라 생각해 왔습니다. 그런 상임위를 만들고자 노력해 왔으나 그마저도 스스로 무너뜨린 부끄러운 날이었습니다. 위원님들께 사과 문자라도 드리고 싶었지만 조롱당한다 느끼실 수 있으리라 생각되어 보내지도 못했습니다. 오늘 사과가 위원님들께서 입으신 상처가 조금이나마 해소되기를 간절한 마음으로 소망합니다. 다시 한번 깊이 반성하겠습니다. 죄송합니다.
우선 하시기 전에 의사진행발언을……
잠깐만요, 조금 이따 드릴게요.
위원님들께서도 아시는 바와 같이 지난해 10월 공정거래위원회는 일부 포털 사업자가 검색 알고리즘을 조종하여 소비자를 기만하였다는 이유로 267억 원의 과징금을 부과하였습니다.
2020년 국정감사에서 박성중 간사님을 비롯한 국민의힘 소속 위원님들께서 포털 알고리즘의 공정성과 중립성에 대한 검증이 필요하다는 의견을 제시하셨습니다. 오늘은 이러한 의견에 따라 포털 알고리즘에 관한 전문가 및 관련 사업자의 견해를 청취하기 위해 공청회를 개최하게 되었습니다.
오늘 공청회가 소기의 목적을 달성할 수 있도록 진술인과 참고인 여러분께서는 위원님들의 질의에 성실하게 답변해 주시기 바랍니다.
그리고 오늘 공청회는 국회방송에서 생중계됩니다. 위원님들 일정에 참고하시기 바랍니다.
그러면 박성중 간사님, 의사진행발언.
위원님들께서도 아시는 바와 같이 지난해 10월 공정거래위원회는 일부 포털 사업자가 검색 알고리즘을 조종하여 소비자를 기만하였다는 이유로 267억 원의 과징금을 부과하였습니다.
2020년 국정감사에서 박성중 간사님을 비롯한 국민의힘 소속 위원님들께서 포털 알고리즘의 공정성과 중립성에 대한 검증이 필요하다는 의견을 제시하셨습니다. 오늘은 이러한 의견에 따라 포털 알고리즘에 관한 전문가 및 관련 사업자의 견해를 청취하기 위해 공청회를 개최하게 되었습니다.
오늘 공청회가 소기의 목적을 달성할 수 있도록 진술인과 참고인 여러분께서는 위원님들의 질의에 성실하게 답변해 주시기 바랍니다.
그리고 오늘 공청회는 국회방송에서 생중계됩니다. 위원님들 일정에 참고하시기 바랍니다.
그러면 박성중 간사님, 의사진행발언.
(손을 듦)
아니, 박성중 간사님부터.
국민의힘 간사 박성중 위원입니다.
장관후보자 청문보고서 안건 처리와 관련해서 위원장님의 사과가 있었으니까 받아들이면서 그래도 한 번은 짚어야 되기 때문에 앞으로 이런 일이 재발되어서는 안 되기 때문에 다시 한번 짚고자 합니다.
사실 저희 국민의힘에서는 이 안건 처리 무효확인소송 또 집행정지 가처분 신청 그리고 이원욱 위원장에 대한 국회 윤리위 제소까지도 다 검토를 한 사항입니다마는 오늘 결과를 보고 판단하겠다고 우리 내부에서 최종 결과를 가지고 왔는데 먼저 사과를 하시니까 전체 사과의 뜻은 받아들이겠습니다.
우선 지난 5월 13일 과방위 전체회의에서 우리 이원욱 위원장님과 민주당 과방위 위원들에 의해서 국회법 절차를 위반한 인사청문경과보고서 날치기 통과가 자행되었습니다. 당시 임혜숙 장관후보자는 여자 조국이니 비리 종합세트니 등 자질과 능력은 물론 여러 가지 어떤 도덕성 또 여러 가지 공적 인식 이런 것이 부족한 낙마 1호였다는 것이 여론도 그렇고 민주당 내에서도 일부 공감이 있었습니다.
그런데 상임위원회 우리 위원장께서는 국회법 49조에 따라서 위원회를 대표해서 여야를 막론하고 공명정대하게 회의를 진행할 막중한 책임이 있는데도 그것을 무시하고 임혜숙을 옹호하기에만 나섰다, 국회법 절차를 위반하면서도 임혜숙 옹호하는 데만 나섰다는 말씀을 드리면서 이에 국민의힘은 장관후보자 청문보고서 안건 처리는 국회법이 정한 표결 절차를 위반한 원천적인 무효이며 그 책임은 전적으로 이원욱 위원장에게 있다 이런 말씀을 다시 한번 강조합니다.
이원욱 위원장은 과기부장관후보자 청문보고서 채택 건을 국민의힘 소속 위원들의 반대의견 표명에도 불구하고 국회법 112조에 정한 표결 절차를 생략하고 위원장이 일방적으로 가결 선포를 한 결과 안건 처리에 중대한 절차적 하자가 발생했습니다.
그리고 상임위에서 의결 전의 의사진행발언은 본회의에서의 찬반토론에 해당합니다. 그래서 본회의의 이런 찬반토론을 통하여 본회의 결과가 달라질 수도 있듯이 사전에 반드시 거쳐야 하는 절차입니다. 그런데도 위원장은 표결 이전에 국민의힘 소속 위원들이 신청한 여러 가지 어떤 의사진행발언 기회를 봉쇄하고 표결을 바로 진행함으로써 정상적인 의사에 심각한 하자가 발생했습니다. 이것은 국회법 제112조(표결 방법)에 자세히 나와 있습니다.
이 문제에 대해서 국민의힘이 강력히 이의를 제기하자 부랴부랴 거수를 실시했으나 이미 의결이 끝난 이후에 효력이 상실된 절차이고 표결이 아닌 단순한 찬성 숫자만 확인한 것으로 국회법 위반을 돌이킬 수 없는 그런 사항이었습니다. 이 사실만 보더라도 자신들 스스로 의결 절차에서 실수가 있었음을 인정하는 좋은 증거로 판단됩니다.
(발언시간 초과로 마이크 중단)
(마이크 중단 이후 계속 발언한 부분)
따라서 임혜숙 장관후보자 인사청문경과보고서 날치기 채택은 국회법을 위반한 무효행위로서 아무런 법적 효력을 가질 수 없고, 문재인 대통령 역시 국회 인사청문보고서 재송부를 공식적으로 요청한 기한 5월 14일이 지나지 않은 5월 14일 오전 법률적으로 무효인 청문보고서를 근거로 장관을 임명 강행한 것도 역시 무효라고 저희들은 밝힙니다.
이 사태에 대해서 이원욱 위원장님의 사과가 있었으니까 그것은 저희들이 받아들입니다. 다만 다시 앞으로는 이런 재발 방지책을, 하지 않겠다는 입장을 다시 한번 밝혀 달라 이런 말씀을 드리고 싶습니다.
장관후보자 청문보고서 안건 처리와 관련해서 위원장님의 사과가 있었으니까 받아들이면서 그래도 한 번은 짚어야 되기 때문에 앞으로 이런 일이 재발되어서는 안 되기 때문에 다시 한번 짚고자 합니다.
사실 저희 국민의힘에서는 이 안건 처리 무효확인소송 또 집행정지 가처분 신청 그리고 이원욱 위원장에 대한 국회 윤리위 제소까지도 다 검토를 한 사항입니다마는 오늘 결과를 보고 판단하겠다고 우리 내부에서 최종 결과를 가지고 왔는데 먼저 사과를 하시니까 전체 사과의 뜻은 받아들이겠습니다.
우선 지난 5월 13일 과방위 전체회의에서 우리 이원욱 위원장님과 민주당 과방위 위원들에 의해서 국회법 절차를 위반한 인사청문경과보고서 날치기 통과가 자행되었습니다. 당시 임혜숙 장관후보자는 여자 조국이니 비리 종합세트니 등 자질과 능력은 물론 여러 가지 어떤 도덕성 또 여러 가지 공적 인식 이런 것이 부족한 낙마 1호였다는 것이 여론도 그렇고 민주당 내에서도 일부 공감이 있었습니다.
그런데 상임위원회 우리 위원장께서는 국회법 49조에 따라서 위원회를 대표해서 여야를 막론하고 공명정대하게 회의를 진행할 막중한 책임이 있는데도 그것을 무시하고 임혜숙을 옹호하기에만 나섰다, 국회법 절차를 위반하면서도 임혜숙 옹호하는 데만 나섰다는 말씀을 드리면서 이에 국민의힘은 장관후보자 청문보고서 안건 처리는 국회법이 정한 표결 절차를 위반한 원천적인 무효이며 그 책임은 전적으로 이원욱 위원장에게 있다 이런 말씀을 다시 한번 강조합니다.
이원욱 위원장은 과기부장관후보자 청문보고서 채택 건을 국민의힘 소속 위원들의 반대의견 표명에도 불구하고 국회법 112조에 정한 표결 절차를 생략하고 위원장이 일방적으로 가결 선포를 한 결과 안건 처리에 중대한 절차적 하자가 발생했습니다.
그리고 상임위에서 의결 전의 의사진행발언은 본회의에서의 찬반토론에 해당합니다. 그래서 본회의의 이런 찬반토론을 통하여 본회의 결과가 달라질 수도 있듯이 사전에 반드시 거쳐야 하는 절차입니다. 그런데도 위원장은 표결 이전에 국민의힘 소속 위원들이 신청한 여러 가지 어떤 의사진행발언 기회를 봉쇄하고 표결을 바로 진행함으로써 정상적인 의사에 심각한 하자가 발생했습니다. 이것은 국회법 제112조(표결 방법)에 자세히 나와 있습니다.
이 문제에 대해서 국민의힘이 강력히 이의를 제기하자 부랴부랴 거수를 실시했으나 이미 의결이 끝난 이후에 효력이 상실된 절차이고 표결이 아닌 단순한 찬성 숫자만 확인한 것으로 국회법 위반을 돌이킬 수 없는 그런 사항이었습니다. 이 사실만 보더라도 자신들 스스로 의결 절차에서 실수가 있었음을 인정하는 좋은 증거로 판단됩니다.
(발언시간 초과로 마이크 중단)
따라서 임혜숙 장관후보자 인사청문경과보고서 날치기 채택은 국회법을 위반한 무효행위로서 아무런 법적 효력을 가질 수 없고, 문재인 대통령 역시 국회 인사청문보고서 재송부를 공식적으로 요청한 기한 5월 14일이 지나지 않은 5월 14일 오전 법률적으로 무효인 청문보고서를 근거로 장관을 임명 강행한 것도 역시 무효라고 저희들은 밝힙니다.
이 사태에 대해서 이원욱 위원장님의 사과가 있었으니까 그것은 저희들이 받아들입니다. 다만 다시 앞으로는 이런 재발 방지책을, 하지 않겠다는 입장을 다시 한번 밝혀 달라 이런 말씀을 드리고 싶습니다.
허은아 위원님.
국민의힘 허은아 위원입니다.
사과 잘 들었습니다. 그리고 간사님 말씀하셨지만 저도 한 번 더 말씀드리고자 합니다.
저는 지난 5월 13일 자행된 여당의 국회 운영을 규탄하고 당시 불거졌던 더불어민주당의 네 가지 불법적․반민주적 잘못에 대해서 지적하고자 합니다.
첫째, 국회법이 정한 표결 절차를 불법적으로 생략한 잘못입니다.
국회법 제112조는 국회 회의가 지켜야 할 표결 방법에 대해 규정하고 있습니다. ‘안건에 대하여 이의가 있을 경우에는 표결을 하도록 되어 있다’ 3항의 내용입니다.
그러나 지난 5월 13일 이원욱 위원장께서는 야당 위원들의 명백한 이의 제기에도 불구하고 인사청문안을 일방적으로 가결시켰습니다. 이는 안건에 대한 국회법 제112조의 명백한 위반이자 국회를 대리자로 하여 장관 임명에 동의하지 않는 국민들의 참정권을 훼손한 행위입니다. 국회 민주주의에 대한 심각한 모독이자 도전이라고 생각합니다.
둘째, 위원의 의사진행발언 기회를 불법적으로 생략한 잘못입니다.
국회법 제60조에 따르면 위원회 위원은 같은 의제에 대하여 횟수나 시간에 제한 없이 발언할 수 있도록 규정하고 있습니다. 그러나 이원욱 위원장은 13일 국민의힘 위원들의 발언권 요구를 일방적으로 무시한 채 인사청문요청안을 독단적으로 가결시켜 버렸고 이후에도 발언 기회는 1인으로 제한하겠다며 재갈을 물리려 했습니다. 이는 국회법 제60조에 대한 위반이자 국회의원의 발언권을 탄압한 입법 독재이며 위원장으로서 반민주적이고 불법적인 의사 운영을 한 것으로 이원욱 위원장께서는 응당한 책임을 져야 할 것임을 밝히는 바입니다.
셋째, 거짓된 선례를 인용하여 국민들을 호도하고 기만한 잘못입니다.
이원욱 위원장께서는……
시간 좀 부탁드리겠습니다.
13일 제시한 해당 사례, 교섭단체 간 합의된 사항에 관한 무소속 위원의 이견에 대해 표결을 생략한 사례입니다. 저희 국민의힘은 과기부장관 청문회 보고서 채택에 동의하거나 합의한 적이 한 번도 없습니다. 다시 말해서 위원장께서 든 선례와 이번 사태는 교섭단체 간 합의 여부에 관해 본질적으로 아주 다른 사례인 것이고요. 위원장께서는 신성한 국회 회의장에서 거짓 선례를 제시하며 국민을 호도하고 기만하였습니다.
마지막입니다. 일방적 가결 선포 이후 형식적인 거수 표결을 함으로써 교섭단체인 국민의힘의 의사표현권을 조롱하고 모욕한 잘못입니다.
이원욱 위원장께서는 야당의 문제 제기와 재표결 항의 표시로 퇴장하자 그제야 여당만 모아 두고 이미 가결시켜 놓은 안건의 찬성 인원만 확인한 채 회의를 급히 산회해 버렸습니다. 야당이 안건에 대해 의사를 표할 권리를 부정했고 나아가 여당끼리만 형식적인 의결을 하면서 야당의 의사를 조롱하기까지 했습니다.
30초 부탁드립니다.
법을 만든다는 국회가 이렇게 법적으로 정해진 절차와 규율도 무시하고 반민주적으로 안건을 처리해서는 안 될 일입니다.
더불어민주당의 불법적․반민주적 행태를 규탄하며 부적격한 후보를 부적격하다고 말도 못 하는 홍길동 국회를 만들지 않을 것을 촉구합니다.
위원장님뿐만 아니라 여당 위원들의 반성도 필요한 시점이라고 생각합니다.
이상입니다.
사과 잘 들었습니다. 그리고 간사님 말씀하셨지만 저도 한 번 더 말씀드리고자 합니다.
저는 지난 5월 13일 자행된 여당의 국회 운영을 규탄하고 당시 불거졌던 더불어민주당의 네 가지 불법적․반민주적 잘못에 대해서 지적하고자 합니다.
첫째, 국회법이 정한 표결 절차를 불법적으로 생략한 잘못입니다.
국회법 제112조는 국회 회의가 지켜야 할 표결 방법에 대해 규정하고 있습니다. ‘안건에 대하여 이의가 있을 경우에는 표결을 하도록 되어 있다’ 3항의 내용입니다.
그러나 지난 5월 13일 이원욱 위원장께서는 야당 위원들의 명백한 이의 제기에도 불구하고 인사청문안을 일방적으로 가결시켰습니다. 이는 안건에 대한 국회법 제112조의 명백한 위반이자 국회를 대리자로 하여 장관 임명에 동의하지 않는 국민들의 참정권을 훼손한 행위입니다. 국회 민주주의에 대한 심각한 모독이자 도전이라고 생각합니다.
둘째, 위원의 의사진행발언 기회를 불법적으로 생략한 잘못입니다.
국회법 제60조에 따르면 위원회 위원은 같은 의제에 대하여 횟수나 시간에 제한 없이 발언할 수 있도록 규정하고 있습니다. 그러나 이원욱 위원장은 13일 국민의힘 위원들의 발언권 요구를 일방적으로 무시한 채 인사청문요청안을 독단적으로 가결시켜 버렸고 이후에도 발언 기회는 1인으로 제한하겠다며 재갈을 물리려 했습니다. 이는 국회법 제60조에 대한 위반이자 국회의원의 발언권을 탄압한 입법 독재이며 위원장으로서 반민주적이고 불법적인 의사 운영을 한 것으로 이원욱 위원장께서는 응당한 책임을 져야 할 것임을 밝히는 바입니다.
셋째, 거짓된 선례를 인용하여 국민들을 호도하고 기만한 잘못입니다.
이원욱 위원장께서는……
시간 좀 부탁드리겠습니다.
13일 제시한 해당 사례, 교섭단체 간 합의된 사항에 관한 무소속 위원의 이견에 대해 표결을 생략한 사례입니다. 저희 국민의힘은 과기부장관 청문회 보고서 채택에 동의하거나 합의한 적이 한 번도 없습니다. 다시 말해서 위원장께서 든 선례와 이번 사태는 교섭단체 간 합의 여부에 관해 본질적으로 아주 다른 사례인 것이고요. 위원장께서는 신성한 국회 회의장에서 거짓 선례를 제시하며 국민을 호도하고 기만하였습니다.
마지막입니다. 일방적 가결 선포 이후 형식적인 거수 표결을 함으로써 교섭단체인 국민의힘의 의사표현권을 조롱하고 모욕한 잘못입니다.
이원욱 위원장께서는 야당의 문제 제기와 재표결 항의 표시로 퇴장하자 그제야 여당만 모아 두고 이미 가결시켜 놓은 안건의 찬성 인원만 확인한 채 회의를 급히 산회해 버렸습니다. 야당이 안건에 대해 의사를 표할 권리를 부정했고 나아가 여당끼리만 형식적인 의결을 하면서 야당의 의사를 조롱하기까지 했습니다.
30초 부탁드립니다.
법을 만든다는 국회가 이렇게 법적으로 정해진 절차와 규율도 무시하고 반민주적으로 안건을 처리해서는 안 될 일입니다.
더불어민주당의 불법적․반민주적 행태를 규탄하며 부적격한 후보를 부적격하다고 말도 못 하는 홍길동 국회를 만들지 않을 것을 촉구합니다.
위원장님뿐만 아니라 여당 위원들의 반성도 필요한 시점이라고 생각합니다.
이상입니다.
추가 있습니까?
위원장님……
하지 마시지요.
다른 얘기 할게요.
조승래 간사님.
더불어민주당 조승래입니다.
박성중 간사와 허은아 위원님의 말씀 잘 들었습니다. 그 과정에서 벌어졌던 일에 대해서 위원장님의 사과가 있었고 그것에 대해서 앞으로 저희들이 회의 운영과 관련해서 여야 간 서로 머리를 맞대면서 지혜를 잘 발휘했으면 좋겠다라는 말씀을 드리겠고요.
여기서 다른 얘기는 드리지 않겠습니다. 일단은 진술인들이 와 계시니까 오늘은 알고리즘 공청회에 집중을 했으면 좋겠고요.
최근에 한미 정상회담을 통해서 한미 반도체 협력이라든지 우주산업과 관련된 협력이라든지 5G에 대한 협력이라든지 여러 가지 협력 사안들이 논의가 되고 있어서 차제에 과방위에서 과학기술정보통신부장관을 출석시켜서 후속조치와 관련된 보고를 받고 하는 것들을 저희가 신속하게 진행을 할 필요가 있겠다 싶은 생각이 들어서 이 자리를 빌려서 공식적으로 제안을 드리고 6월 의사일정 협의를 할 때 신속하게 관련된 현안보고가 될 수 있도록 상의를 해 나가자 이런 제안 말씀을 드리도록 하겠습니다.
이상입니다.
박성중 간사와 허은아 위원님의 말씀 잘 들었습니다. 그 과정에서 벌어졌던 일에 대해서 위원장님의 사과가 있었고 그것에 대해서 앞으로 저희들이 회의 운영과 관련해서 여야 간 서로 머리를 맞대면서 지혜를 잘 발휘했으면 좋겠다라는 말씀을 드리겠고요.
여기서 다른 얘기는 드리지 않겠습니다. 일단은 진술인들이 와 계시니까 오늘은 알고리즘 공청회에 집중을 했으면 좋겠고요.
최근에 한미 정상회담을 통해서 한미 반도체 협력이라든지 우주산업과 관련된 협력이라든지 5G에 대한 협력이라든지 여러 가지 협력 사안들이 논의가 되고 있어서 차제에 과방위에서 과학기술정보통신부장관을 출석시켜서 후속조치와 관련된 보고를 받고 하는 것들을 저희가 신속하게 진행을 할 필요가 있겠다 싶은 생각이 들어서 이 자리를 빌려서 공식적으로 제안을 드리고 6월 의사일정 협의를 할 때 신속하게 관련된 현안보고가 될 수 있도록 상의를 해 나가자 이런 제안 말씀을 드리도록 하겠습니다.
이상입니다.
추가하실 분 있으십니까?
(「없습니다」 하는 위원 있음)
다시 한번 박성중 간사님과 허은아 위원님의 지적에 대해서 깊이 반성하고 사과드리겠습니다.
그러면 공청회를 시작하겠습니다.
(「없습니다」 하는 위원 있음)
다시 한번 박성중 간사님과 허은아 위원님의 지적에 대해서 깊이 반성하고 사과드리겠습니다.
그러면 공청회를 시작하겠습니다.
(10시15분)
의사일정 제1항 포털 알고리즘에 관한 공청회를 상정합니다.
오늘 공청회를 위해 바쁘신 가운데도 참석해 주신 진술인 여러분들께 위원장으로서 우리 위원회를 대표해서 감사의 말씀을 드립니다.
그러면 오늘 공청회에 참석하신 진술인 여러분을 소개하겠습니다.
소개 순서는 가나다 순서입니다.
소개받은 진술인께서는 잠시 일어서서 인사하신 후 앉아 주시기 바랍니다.
먼저 김진욱 법무법인 주원 변호사입니다.
다음, 이수영 KAIST 명예교수입니다.
다음, 최경진 가천대 교수입니다.
(인사)
그리고 위원님 여러분께 관련 사업자 입장을 말씀드릴 수 있도록 두 분의 참고인이 배석합니다. 참고인은 별도로 진술하지 않고 위원님들의 질의가 있으면 답변만 하도록 하겠습니다.
참고인을 소개하겠습니다. 소개받은 참고인께서도 잠시 일어서서 인사하신 후 앉아 주시기 바랍니다.
최재호 네이버 에어스(AiRS) 이사입니다.
김희정 다음카카오 플랫폼사업실장입니다.
(인사)
본래 김동원 언론노조 정책실장이 진술인으로 오기로 되어 있었는데 조금 늦는다고 연락이 와서 이따 도착하는 대로 다시 소개시켜 드리도록 하겠습니다.
위원님들의 질의에 답변하기 위해 정부 측에서는 과기정통부 강도현 정보통신정책관과 방통위 김재철 이용자정책국장이 오늘 공청회에 배석하고 있습니다.
(인사)
참고해 주시기 바랍니다.
그러면 공청회를 진행하겠습니다.
오늘 공청회는 먼저 진술인들의 발표를 일괄해서 들은 후에 위원님들의 질의와 이에 대한 해당 진술인의 답변을 듣는 순서로 진행하겠습니다. 발표 시간은 진술인별로 5분 이내로 하겠습니다.
오늘 발표하실 내용에 대해서는 원고를 사전에 보내 드려 각 위원님들께서 대략적인 사항을 숙지하고 계십니다. 그러기 때문에 진술인께서는 가급적 시간 내에 진술을 마쳐 주실 것을 부탁드리겠습니다.
먼저 김진욱 변호사님 진술해 주십시오.
오늘 공청회를 위해 바쁘신 가운데도 참석해 주신 진술인 여러분들께 위원장으로서 우리 위원회를 대표해서 감사의 말씀을 드립니다.
그러면 오늘 공청회에 참석하신 진술인 여러분을 소개하겠습니다.
소개 순서는 가나다 순서입니다.
소개받은 진술인께서는 잠시 일어서서 인사하신 후 앉아 주시기 바랍니다.
먼저 김진욱 법무법인 주원 변호사입니다.
다음, 이수영 KAIST 명예교수입니다.
다음, 최경진 가천대 교수입니다.
(인사)
그리고 위원님 여러분께 관련 사업자 입장을 말씀드릴 수 있도록 두 분의 참고인이 배석합니다. 참고인은 별도로 진술하지 않고 위원님들의 질의가 있으면 답변만 하도록 하겠습니다.
참고인을 소개하겠습니다. 소개받은 참고인께서도 잠시 일어서서 인사하신 후 앉아 주시기 바랍니다.
최재호 네이버 에어스(AiRS) 이사입니다.
김희정 다음카카오 플랫폼사업실장입니다.
(인사)
본래 김동원 언론노조 정책실장이 진술인으로 오기로 되어 있었는데 조금 늦는다고 연락이 와서 이따 도착하는 대로 다시 소개시켜 드리도록 하겠습니다.
위원님들의 질의에 답변하기 위해 정부 측에서는 과기정통부 강도현 정보통신정책관과 방통위 김재철 이용자정책국장이 오늘 공청회에 배석하고 있습니다.
(인사)
참고해 주시기 바랍니다.
그러면 공청회를 진행하겠습니다.
오늘 공청회는 먼저 진술인들의 발표를 일괄해서 들은 후에 위원님들의 질의와 이에 대한 해당 진술인의 답변을 듣는 순서로 진행하겠습니다. 발표 시간은 진술인별로 5분 이내로 하겠습니다.
오늘 발표하실 내용에 대해서는 원고를 사전에 보내 드려 각 위원님들께서 대략적인 사항을 숙지하고 계십니다. 그러기 때문에 진술인께서는 가급적 시간 내에 진술을 마쳐 주실 것을 부탁드리겠습니다.
먼저 김진욱 변호사님 진술해 주십시오.

방금 소개받은 김진욱 변호사입니다.
오늘 이렇게 포털 알고리즘 공청회에 초청받아서 발언을 할 수 있는 기회를 주신 국회 과방위 위원장님 이하 위원님들께 감사말씀 드립니다.
포털 알고리즘의 문제점 및 현황에 대해서 우선 말씀드리겠습니다.
사회적으로는 네이버 그리고 카카오 모두 일일 평균 이용자 수가 3000만 명이 넘는 막대한 이용자를 보유하고 있고 전 국민이 이용하는 검색서비스를 운영하는 포털들이 뉴스 영역에서 AI 알고리즘을 2008년 그리고 2019년 각각 어떻게 도입을 하고 그다음에 편집 방법이 알고리즘에 반영되는지 기준에 대해서 발표한 바가 있습니다.
다만 포털 뉴스 편집 및 댓글 노출 알고리즘에 적용되는 기술만 공개되어 있을 뿐이지 세부적인 로직이라든지 가중치 항목 그리고 수집되고 사용되는 정보들의 종류 등을 공개하지 않아 포털에서 적용되는 알고리즘의 설계 그리고 초깃값 설정은 여전히 깜깜이, 불투명하다는 한계가 존재하고 있는 상황입니다. 그래서 뉴스를 비롯해서 국민들의 실생활에 직접적인 영향을 미칠 수 있는 쇼핑 등 검색에 있어서의 알고리즘 역시 공정성 논란이 계속해서 제기되고 있는 상황입니다.
이들 사업자가 자체 설계한 AI 초깃값 그리고 중간중간에 운영 과정에서 상시 입력되는 뉴스 기사 배열이라든지 또는 쇼핑에 있어서 상품․서비스 검색 등 이슈별 노출에 대한 우선순위 그리고 가중치, 선호도, 이용자별로 달라지도록 정해 놓은 일별, 주별, 월별 기준 입력값 등이 문제가 되고 있는 상황입니다.
그래서 설계자 및 운영자의 정치적 성향이라든지 또는 회사의 경제적인 수익과 직결될 수 있는 부분에 대한 입장 등이 반영될 수밖에 없는 구조적인 문제로 이어지고 있는 상황이고, 특히 포털에서 제공하는 뉴스 기사의 편향성 그리고 정치적 의도를 고려하지 않은 채 무의식적으로 접하는 이용자들 의식을 고착화시키는, 그러니까 포털이 노출하는 뉴스 기사를 그대로 무분별하게 수용하는 현상인 필터 버블(Filter Bubble) 현상이 심화된다라는 문제가 지적될 수 있겠습니다.
이는 건전하고도 합리적인 비판적 사고에 대한 공백을 초래하고 결정적으로 이용자들의 자율적인 판단과 선택이 필요한 영역, 특히 선거 등 주권자의 자유로운 의사결정이 중요한 영역에서 포털사가 의도하고 있는 방향으로 이용자들이 의사를 결정․선택하게 되는 결과 온라인에서의 여론 왜곡 그리고 의사 형성․판단에 있어서의 왜곡, 주권자인 국민의 민주적 의사결정에 그릇된 영향을 미쳐서 민주주의에 큰 해악으로 작용하는 등 사회적으로도 심각한 결과를 야기할 소지가 농후하다라는 말씀을 드릴 수 있겠습니다.
또한 경제적으로 역시 수많은 이용자들을 보유하고 있는 포털이 쇼핑 검색 등 제반 영역에 있어서 자사 그리고 자사의 경제적 수익 창출에 큰 도움이 되는 콘텐츠를 우선 노출하고 배열하는 문제가 지적될 수 있겠습니다.
종전에 포털이 온라인에서 가지고 있는 영향력을 그대로 쇼핑 검색 등에 전이시켜 합리적인 유효 경쟁을 저해하는 방향으로 온라인 제품․서비스의 유통구조를 왜곡하는 문제도 역시 지적될 수 있겠습니다.
아울러 양대 포털의 이용자 수 그리고 영향력 등이 이 사업자들에게 입점하려는 영세사업자 등에게 비용 면에서 시간이 흘러갈수록 부담으로 작용하고 포털에 지급되는 금액 등을 토대로 검색 순위에 있어서 차등 등 불공정 경쟁환경이 고착화될 우려가 여전히 존재하고 있는 상황입니다.
다음으로 국내 포털 그리고 해외 포털 등 사업자들이 운영하고 있는 알고리즘의 가치 중립 여부 그리고 내․외부의 개입 가능성 유무에 대해서 살펴보겠습니다.
AI 알고리즘은 설계자 및 운영자가 누구냐에 따라서 그 작동에 따른 결과가 달라지게 된다는 것은 이미 널리 알려진 주지의 사실입니다. 알고리즘은 그것을 설계하고 구축, 운영하는 단계마다 개발자 그리고 운영자의 기준이나 판단, 우선적인 가치 그리고 당시의 사회적 풍토라든지 내․외부적인 압력 등이 개입할 수밖에 없는 구조적인 한계를 보유하고 있다고 할 것입니다.
일각에서 AI 프로그램 자체적으로 자율학습을 통해서 콘텐츠를 노출․배열했기 때문에 그 결과 역시 가치중립적이라는 주장이 있습니다. 그런데 이게 현재 포털사가 제공하고 있는 AI 프로그램 작동 과정에서 설곗값 및 운영값을 적용하는 과정에서 역시 설계자․운영자의 의사가 반영될 수밖에 없는 그리고 현재 반영되고 있는 현실을 고려할 때 ‘기계가 사람보다 더 공정하다’라는 전제가 잘못된 논리적 모순을 내포하고 있다고 할 것입니다.
그 외에 포털에서는 알고리즘 공개가 영업비밀을 침해한다라고 얘기하고 있지만 마찬가지로 그 결과가 중립적이라는 주장에 따를 때 AI 알고리즘을 공개하더라도 외부 해킹이라든지 내부 조정 등 요인에 관계없이 오히려 그 결과가 가치중립적이기 때문에 문제의 소지가 적다고 할 것입니다.
또 최근에 포털이 자체적으로 뉴스알고리즘검증위원회를 만들어서 내부적으로 기계적 결함 여부에 대한 검증을 시도하겠다는 약속은 했지만 그 검증 결과, 방향 역시 포털사의 의중에 따라서 좌우될 가능성이 매우 높다고 할 것입니다.
또 앞서 말씀드린 것처럼 포털 검색 쇼핑 시장에서의 역차별 논란 역시도 이것이 이용자들에게 불공정한 경쟁을 조장하는 등 불법의 평등을 요구하는 것이라면 이것 역시 포털 스스로 자초한 면이 있기 때문에 이번 공청회의 결과를 반영해서 알고리즘에 대한 공개 그리고 그 결과에 대한 자료제출 요구 등이 필요하다고 생각됩니다.
다만 현재 실증적인 판단에 있어서, 검증에 있어서 시간적인 소요가 있을 수 있기 때문에 구체적으로 AI 알고리즘의 중립성을 심사하는 시스템 구축에 있어서 정부 등 외부에서는 보충적인 시도에 그쳐야 된다라는 말씀을 드리고 일정 범위 내에서 AI 알고리즘의 투명성 확보를 위해서 공개 그리고 지속적인 외부 검증이 진행되어야지만 차츰 포털이 가지고 운영하고 있는 알고리즘이 공정한 방향으로 나아가고 있다는 국민 신뢰를 확보할 수 있다 또한 이게 지속가능한 산업 성장에 있어서 요인이 될 수 있겠다라는 말씀으로 진술을 마치겠습니다.
고맙습니다.
오늘 이렇게 포털 알고리즘 공청회에 초청받아서 발언을 할 수 있는 기회를 주신 국회 과방위 위원장님 이하 위원님들께 감사말씀 드립니다.
포털 알고리즘의 문제점 및 현황에 대해서 우선 말씀드리겠습니다.
사회적으로는 네이버 그리고 카카오 모두 일일 평균 이용자 수가 3000만 명이 넘는 막대한 이용자를 보유하고 있고 전 국민이 이용하는 검색서비스를 운영하는 포털들이 뉴스 영역에서 AI 알고리즘을 2008년 그리고 2019년 각각 어떻게 도입을 하고 그다음에 편집 방법이 알고리즘에 반영되는지 기준에 대해서 발표한 바가 있습니다.
다만 포털 뉴스 편집 및 댓글 노출 알고리즘에 적용되는 기술만 공개되어 있을 뿐이지 세부적인 로직이라든지 가중치 항목 그리고 수집되고 사용되는 정보들의 종류 등을 공개하지 않아 포털에서 적용되는 알고리즘의 설계 그리고 초깃값 설정은 여전히 깜깜이, 불투명하다는 한계가 존재하고 있는 상황입니다. 그래서 뉴스를 비롯해서 국민들의 실생활에 직접적인 영향을 미칠 수 있는 쇼핑 등 검색에 있어서의 알고리즘 역시 공정성 논란이 계속해서 제기되고 있는 상황입니다.
이들 사업자가 자체 설계한 AI 초깃값 그리고 중간중간에 운영 과정에서 상시 입력되는 뉴스 기사 배열이라든지 또는 쇼핑에 있어서 상품․서비스 검색 등 이슈별 노출에 대한 우선순위 그리고 가중치, 선호도, 이용자별로 달라지도록 정해 놓은 일별, 주별, 월별 기준 입력값 등이 문제가 되고 있는 상황입니다.
그래서 설계자 및 운영자의 정치적 성향이라든지 또는 회사의 경제적인 수익과 직결될 수 있는 부분에 대한 입장 등이 반영될 수밖에 없는 구조적인 문제로 이어지고 있는 상황이고, 특히 포털에서 제공하는 뉴스 기사의 편향성 그리고 정치적 의도를 고려하지 않은 채 무의식적으로 접하는 이용자들 의식을 고착화시키는, 그러니까 포털이 노출하는 뉴스 기사를 그대로 무분별하게 수용하는 현상인 필터 버블(Filter Bubble) 현상이 심화된다라는 문제가 지적될 수 있겠습니다.
이는 건전하고도 합리적인 비판적 사고에 대한 공백을 초래하고 결정적으로 이용자들의 자율적인 판단과 선택이 필요한 영역, 특히 선거 등 주권자의 자유로운 의사결정이 중요한 영역에서 포털사가 의도하고 있는 방향으로 이용자들이 의사를 결정․선택하게 되는 결과 온라인에서의 여론 왜곡 그리고 의사 형성․판단에 있어서의 왜곡, 주권자인 국민의 민주적 의사결정에 그릇된 영향을 미쳐서 민주주의에 큰 해악으로 작용하는 등 사회적으로도 심각한 결과를 야기할 소지가 농후하다라는 말씀을 드릴 수 있겠습니다.
또한 경제적으로 역시 수많은 이용자들을 보유하고 있는 포털이 쇼핑 검색 등 제반 영역에 있어서 자사 그리고 자사의 경제적 수익 창출에 큰 도움이 되는 콘텐츠를 우선 노출하고 배열하는 문제가 지적될 수 있겠습니다.
종전에 포털이 온라인에서 가지고 있는 영향력을 그대로 쇼핑 검색 등에 전이시켜 합리적인 유효 경쟁을 저해하는 방향으로 온라인 제품․서비스의 유통구조를 왜곡하는 문제도 역시 지적될 수 있겠습니다.
아울러 양대 포털의 이용자 수 그리고 영향력 등이 이 사업자들에게 입점하려는 영세사업자 등에게 비용 면에서 시간이 흘러갈수록 부담으로 작용하고 포털에 지급되는 금액 등을 토대로 검색 순위에 있어서 차등 등 불공정 경쟁환경이 고착화될 우려가 여전히 존재하고 있는 상황입니다.
다음으로 국내 포털 그리고 해외 포털 등 사업자들이 운영하고 있는 알고리즘의 가치 중립 여부 그리고 내․외부의 개입 가능성 유무에 대해서 살펴보겠습니다.
AI 알고리즘은 설계자 및 운영자가 누구냐에 따라서 그 작동에 따른 결과가 달라지게 된다는 것은 이미 널리 알려진 주지의 사실입니다. 알고리즘은 그것을 설계하고 구축, 운영하는 단계마다 개발자 그리고 운영자의 기준이나 판단, 우선적인 가치 그리고 당시의 사회적 풍토라든지 내․외부적인 압력 등이 개입할 수밖에 없는 구조적인 한계를 보유하고 있다고 할 것입니다.
일각에서 AI 프로그램 자체적으로 자율학습을 통해서 콘텐츠를 노출․배열했기 때문에 그 결과 역시 가치중립적이라는 주장이 있습니다. 그런데 이게 현재 포털사가 제공하고 있는 AI 프로그램 작동 과정에서 설곗값 및 운영값을 적용하는 과정에서 역시 설계자․운영자의 의사가 반영될 수밖에 없는 그리고 현재 반영되고 있는 현실을 고려할 때 ‘기계가 사람보다 더 공정하다’라는 전제가 잘못된 논리적 모순을 내포하고 있다고 할 것입니다.
그 외에 포털에서는 알고리즘 공개가 영업비밀을 침해한다라고 얘기하고 있지만 마찬가지로 그 결과가 중립적이라는 주장에 따를 때 AI 알고리즘을 공개하더라도 외부 해킹이라든지 내부 조정 등 요인에 관계없이 오히려 그 결과가 가치중립적이기 때문에 문제의 소지가 적다고 할 것입니다.
또 최근에 포털이 자체적으로 뉴스알고리즘검증위원회를 만들어서 내부적으로 기계적 결함 여부에 대한 검증을 시도하겠다는 약속은 했지만 그 검증 결과, 방향 역시 포털사의 의중에 따라서 좌우될 가능성이 매우 높다고 할 것입니다.
또 앞서 말씀드린 것처럼 포털 검색 쇼핑 시장에서의 역차별 논란 역시도 이것이 이용자들에게 불공정한 경쟁을 조장하는 등 불법의 평등을 요구하는 것이라면 이것 역시 포털 스스로 자초한 면이 있기 때문에 이번 공청회의 결과를 반영해서 알고리즘에 대한 공개 그리고 그 결과에 대한 자료제출 요구 등이 필요하다고 생각됩니다.
다만 현재 실증적인 판단에 있어서, 검증에 있어서 시간적인 소요가 있을 수 있기 때문에 구체적으로 AI 알고리즘의 중립성을 심사하는 시스템 구축에 있어서 정부 등 외부에서는 보충적인 시도에 그쳐야 된다라는 말씀을 드리고 일정 범위 내에서 AI 알고리즘의 투명성 확보를 위해서 공개 그리고 지속적인 외부 검증이 진행되어야지만 차츰 포털이 가지고 운영하고 있는 알고리즘이 공정한 방향으로 나아가고 있다는 국민 신뢰를 확보할 수 있다 또한 이게 지속가능한 산업 성장에 있어서 요인이 될 수 있겠다라는 말씀으로 진술을 마치겠습니다.
고맙습니다.
수고하셨습니다.
다음은 이수영 교수님 진술해 주시기 바랍니다.
다음은 이수영 교수님 진술해 주시기 바랍니다.

소개받은 KAIST 인공지능연구소 이수영입니다.
저는 지난 35년간 요즘 딥러닝(deep learning)으로 불리는 인공신경망을 연구 개발해 온 사람이고요. 또 오늘 말씀드릴 것도 연구개발자의 입장에서 인공지능의 윤리를 어떻게 보느냐 하는 것을 말씀드리겠습니다.
먼저 첫 번째 많이 이야기되는 게 인간의 윤리를 인공지능한테 요구를 해야 되는데 어떻게 보면 그것보다 더 엄격한 윤리를 인공지능한테 요구하는 게 아니냐 하는 이야기를 가끔 듣고 있습니다.
실제로 단순히 인공지능한테 저희가 일을 부탁할 때 결국 원하는 목적은 뭐냐 하면 사람이 스스로 하고 싶은 일을 훨씬 더 효율적으로 잘하고 싶다 하는 것이고, 그러니까 어떻게 보면 조수 또는 도움을 받는 사람을 원하는 것이고요. 그럴 때 그 도움을 받는 사람이 하는 일이 어떤 사람한테 우리가 도움을 받고 싶으냐 또는 어떤 것을 기대하느냐는 결국 우리가 그 똑같은 일을 사람한테 부탁을 할 때 그 사람한테 어떤 기준을 가지고 일을 하느냐, 투명성, 그 사람이 어떻게 투명하게 일을 하는지를 물어볼 수 있는 것이고, 공정성도 어떻게 공정하게 해 볼 수 있는지, 그러려면 당연히 그 사람의 과거, 이력서 그런 것을 다 요구하시지 않습니까. 그런 것들을 알아야 된다 하는 관점이라고 생각을 하실 수가 있고요.
또 하나 중요한 관점으로 볼 수 있는 게 인공지능의 윤리는 많이 이야기하시지만 냉장고의 윤리 이런 것 아무도 이야기 안 하시잖아요. 그러니까 그것은 결국 뭔가 다르다, 단순히 기계가 아니고 인공지능이 사람하고 상호작용을 할 수밖에 없고요.
내가 인공지능의 추천을 받으면 그쪽으로 더 많은 것을 보게 되고…… 그러니까 제 집사람 같으면 보라 색깔을 많이 좋아하기 때문에 쇼핑하다가 보면 보라색을 많이 선택을 하게 되고, 그러면 인공지능이 보라색 물건을 더 많이 추천을 하게 되고요. 그러면 프로듀서 입장에서는, 물건을 만드는 사람 입장에서는 보라색을 더 많이 만들어서 더 많이 광고를 올릴 것이고요. 그러면 결국은 모든 것이 다 보라색으로 바뀌는 그런 현상이 생길 수밖에 없기 때문에 단순히 추천 서비스가 사용자의 사용으로 끝나는 게 아니고 사용자가 쓰면 그 데이터가 인공지능을 재학습시키는 학습데이터로 사용이 되고 그것이 다른 사람한테도 영향을 끼친다 그런 측면에서 인공지능이 어떻게 추천 서비스를 하느냐에 우리가 관심을 가져야 된다 하는 것이고. 결론을 말씀드리면 사람한테 요구하는 것을 그대로 요구해야 된다라고 생각을 하고요.
그렇게 보면 어떤 일을 우리가 시키느냐, 부탁하느냐에 따라서 어떤 사람한테 부탁하느냐가 달라집니다. 그러니까 1만 원짜리 물건을 살 때하고 100만 원짜리 물건을 살 때 여러분이 사람한테 부탁할 때도 다른 사람한테 부탁하고 요구조건이 달라지듯이 추천 서비스에서 요구조건을 모든 것을 다 똑같은 기준으로 설정해 가지고 규제하기는 무척 어려울 것이고요.
결국 얻는 이득하고 위험요소 사이에 균형을 유지할 수밖에 없기 때문에 그 위험요소가 어느 정도 수준이냐에 따라서 다른 수준의 투명성, 다른 수준의 안전성을 요구할 수밖에 없고요. 경우에 따라서는 질문 가능성, 왜 이렇게 AI가 추천하는지를 설명까지 하라 그럴 필요가 있고 또 그렇지 않은 경우도 있을 수가 있을 겁니다.
그래서 인공지능의 윤리, 추천 서비스의 윤리를 보면 다른 분야, 예를 들어 자율운전차에 비해서는 훨씬 위험요소가 낮기 때문에 안전성, 투명성을 덜 요구해도 되지만, 그렇지만 추천 내에서조차도 어떤 종류의 추천이냐에 따라서 위험요소가 다르고 그것에 따라서 달리 설명이 되어야 된다고 생각합니다.
투명성은, 대부분 현재 인공지능이 학습데이터로부터 알고리즘이 배우는 형태이기 때문에요 알고리즘을 많이 이야기를 하십니다. 그래서 알고리즘이 투명해야 된다는 것은 맞습니다. 현재 알고리즘이 투명하지 않을 수 있습니다. 많은 사람의, 머저리티(majority)만 더 강조하고 소수는 다 무시하는 알고리즘이 현재 대부분이고요. 그렇지만 그것은 연구개발자가 극복을 할 수가 있습니다.
그렇지만 데이터가 갖고 있는 공정성, 그러니까 어떤 게 진짜 공정하냐를 누가 고쳐 줘야 되느냐? 소비자가 할 수도 없고 제작자가 할 수도 없고 정부도 할 수가 없고, 그래서 근본적으로 소비자도 교육을 시키고 그래서 필요하면 자격증까지 고민하실 필요가 있을 것입니다. 어느 수준 이상의 AI를 쓰시는 분은 자격증이 필요하다고 말씀할 수도 있고 연구개발자, 정부, 다 모여 가지고 계속 모니터링하는 스킴(scheme)이 필요하다.
이상입니다.
저는 지난 35년간 요즘 딥러닝(deep learning)으로 불리는 인공신경망을 연구 개발해 온 사람이고요. 또 오늘 말씀드릴 것도 연구개발자의 입장에서 인공지능의 윤리를 어떻게 보느냐 하는 것을 말씀드리겠습니다.
먼저 첫 번째 많이 이야기되는 게 인간의 윤리를 인공지능한테 요구를 해야 되는데 어떻게 보면 그것보다 더 엄격한 윤리를 인공지능한테 요구하는 게 아니냐 하는 이야기를 가끔 듣고 있습니다.
실제로 단순히 인공지능한테 저희가 일을 부탁할 때 결국 원하는 목적은 뭐냐 하면 사람이 스스로 하고 싶은 일을 훨씬 더 효율적으로 잘하고 싶다 하는 것이고, 그러니까 어떻게 보면 조수 또는 도움을 받는 사람을 원하는 것이고요. 그럴 때 그 도움을 받는 사람이 하는 일이 어떤 사람한테 우리가 도움을 받고 싶으냐 또는 어떤 것을 기대하느냐는 결국 우리가 그 똑같은 일을 사람한테 부탁을 할 때 그 사람한테 어떤 기준을 가지고 일을 하느냐, 투명성, 그 사람이 어떻게 투명하게 일을 하는지를 물어볼 수 있는 것이고, 공정성도 어떻게 공정하게 해 볼 수 있는지, 그러려면 당연히 그 사람의 과거, 이력서 그런 것을 다 요구하시지 않습니까. 그런 것들을 알아야 된다 하는 관점이라고 생각을 하실 수가 있고요.
또 하나 중요한 관점으로 볼 수 있는 게 인공지능의 윤리는 많이 이야기하시지만 냉장고의 윤리 이런 것 아무도 이야기 안 하시잖아요. 그러니까 그것은 결국 뭔가 다르다, 단순히 기계가 아니고 인공지능이 사람하고 상호작용을 할 수밖에 없고요.
내가 인공지능의 추천을 받으면 그쪽으로 더 많은 것을 보게 되고…… 그러니까 제 집사람 같으면 보라 색깔을 많이 좋아하기 때문에 쇼핑하다가 보면 보라색을 많이 선택을 하게 되고, 그러면 인공지능이 보라색 물건을 더 많이 추천을 하게 되고요. 그러면 프로듀서 입장에서는, 물건을 만드는 사람 입장에서는 보라색을 더 많이 만들어서 더 많이 광고를 올릴 것이고요. 그러면 결국은 모든 것이 다 보라색으로 바뀌는 그런 현상이 생길 수밖에 없기 때문에 단순히 추천 서비스가 사용자의 사용으로 끝나는 게 아니고 사용자가 쓰면 그 데이터가 인공지능을 재학습시키는 학습데이터로 사용이 되고 그것이 다른 사람한테도 영향을 끼친다 그런 측면에서 인공지능이 어떻게 추천 서비스를 하느냐에 우리가 관심을 가져야 된다 하는 것이고. 결론을 말씀드리면 사람한테 요구하는 것을 그대로 요구해야 된다라고 생각을 하고요.
그렇게 보면 어떤 일을 우리가 시키느냐, 부탁하느냐에 따라서 어떤 사람한테 부탁하느냐가 달라집니다. 그러니까 1만 원짜리 물건을 살 때하고 100만 원짜리 물건을 살 때 여러분이 사람한테 부탁할 때도 다른 사람한테 부탁하고 요구조건이 달라지듯이 추천 서비스에서 요구조건을 모든 것을 다 똑같은 기준으로 설정해 가지고 규제하기는 무척 어려울 것이고요.
결국 얻는 이득하고 위험요소 사이에 균형을 유지할 수밖에 없기 때문에 그 위험요소가 어느 정도 수준이냐에 따라서 다른 수준의 투명성, 다른 수준의 안전성을 요구할 수밖에 없고요. 경우에 따라서는 질문 가능성, 왜 이렇게 AI가 추천하는지를 설명까지 하라 그럴 필요가 있고 또 그렇지 않은 경우도 있을 수가 있을 겁니다.
그래서 인공지능의 윤리, 추천 서비스의 윤리를 보면 다른 분야, 예를 들어 자율운전차에 비해서는 훨씬 위험요소가 낮기 때문에 안전성, 투명성을 덜 요구해도 되지만, 그렇지만 추천 내에서조차도 어떤 종류의 추천이냐에 따라서 위험요소가 다르고 그것에 따라서 달리 설명이 되어야 된다고 생각합니다.
투명성은, 대부분 현재 인공지능이 학습데이터로부터 알고리즘이 배우는 형태이기 때문에요 알고리즘을 많이 이야기를 하십니다. 그래서 알고리즘이 투명해야 된다는 것은 맞습니다. 현재 알고리즘이 투명하지 않을 수 있습니다. 많은 사람의, 머저리티(majority)만 더 강조하고 소수는 다 무시하는 알고리즘이 현재 대부분이고요. 그렇지만 그것은 연구개발자가 극복을 할 수가 있습니다.
그렇지만 데이터가 갖고 있는 공정성, 그러니까 어떤 게 진짜 공정하냐를 누가 고쳐 줘야 되느냐? 소비자가 할 수도 없고 제작자가 할 수도 없고 정부도 할 수가 없고, 그래서 근본적으로 소비자도 교육을 시키고 그래서 필요하면 자격증까지 고민하실 필요가 있을 것입니다. 어느 수준 이상의 AI를 쓰시는 분은 자격증이 필요하다고 말씀할 수도 있고 연구개발자, 정부, 다 모여 가지고 계속 모니터링하는 스킴(scheme)이 필요하다.
이상입니다.
수고하셨습니다.
진술하시는 중에 김동원 언론노조 정책실장님이 오셨습니다.
잠깐 일어나서 인사해 주시고 착석해 주시기 바랍니다.
(인사)
고맙습니다.
실장님 진술은 마지막에 하도록 하겠습니다.
다음으로 최경진 가천대 교수 진술해 주십시오.
진술하시는 중에 김동원 언론노조 정책실장님이 오셨습니다.
잠깐 일어나서 인사해 주시고 착석해 주시기 바랍니다.
(인사)
고맙습니다.
실장님 진술은 마지막에 하도록 하겠습니다.
다음으로 최경진 가천대 교수 진술해 주십시오.

가천대학교 인공지능․빅데이터 정책연구센터장을 맡고 있는 최경진입니다.
이렇게 의미 있는 알고리즘 관련된 공청회에서 제가 진술할 수 있게 되어서 기쁘게 생각하고요.
제가 말씀드리고자 하는 것은 이러한 논의의 필요성과 그다음에 국내외 동향 그다음에 어떤 것을 고려해야 되는지, 특히나 여기 계신 위원님들께서는 국민의 대표자이시기 때문에 어떤 것을 합리적으로 고려해야 되는지에 대해서 말씀드리도록 하겠습니다.
사실 알고리즘 이슈는 굉장히 오랫동안 논의되어 왔는데요, 그동안에 주로 법․제도적인 측면에서는 알고리즘보다는 포털에 초점이 맞춰졌습니다. 그런데 포털의 기능에 더해져서 알고리즘이 고도화되다 보니까 고도화되는 알고리즘에 대한 법적인 규제의 틀이 필요하지 않을까라는 논의가 최근 들어서 국내외적으로 많은 논의가 이루어지고 있는 것 같습니다.
그 과정에서 몇 가지 알고리즘의 문제점이 제시된 것들을 보면 사실은 포털의 문제점과 알고리즘의 문제점이 혼재되는 경우도 있는데요. 알고리즘의 문제점을 정리해 보면 여기에 제가 적어 놨는데 보통 가장 많이 말씀들 하시는 것이 노출 기준 공개에 관한 문제입니다. 노출 기준과 관련해 가지고 알고리즘이 부적정하게, 부당하게 운영될 수도 있다는 점, 투명하지 않게 운영될 수 있다는 점이 있을 수 있고요.
또 한편으로는 특히나 저널리즘과 관련되어서 알고리즘에 의하지 않은 임의적인 기사 배치 같은 것도 있을 수 있는데 사실 이와 함께 똑같은 문제가 알고리즘에 의해 가지고도 부당하게 나타날 수 있지만 부당하게 사람이 개입해서 알고리즘을 넘어서 가지고 오버라이드(override)함으로써 발생하는 문제도 생겨날 수 있거든요. 이런 두 가지 문제가 있을 수 있고요.
또 하나는 알고리즘 기반의 개인화된 광고가 사람한테 편익을 주는 것 같지만 또 다른 한편으로는 가격 차별이 개인별로 이루어질 수도 있습니다. 이런 문제가 생겨날 수도 있고, 그 연장선상에서 프라이버시 침해도 발생될 수 있습니다.
그리고 알고리즘의 작동원리를 이용한 고의적인 외부적인 데이터 왜곡 같은 것들이 발생할 수도 있고요. 학습되거나 또는 학습된 데이터가 오염이 되거나 또는 편향된 데이터가 학습되었을 경우와 같이 그러한 데이터를 학습한 알고리즘에 문제점이 생겨날 수 있습니다. 보통 이것은 편향된 문제가 결과적으로 차별의 문제와 연결되기 때문에 법적으로 심각한 문제가 될 수 있고요.
그리고 이 전반적인 과정에서 알고리즘에 의한 데이터 처리라든가 또는 정보 제공 과정에서 개인정보 침해 문제 내지는 사람의 기본적인 자유와 권리에 대한 침해 문제가 발생될 수 있습니다.
이러한 문제에 대한 문제점을 인식해서 우리나라뿐만 아니라 해외에서도 다양한 논의가 이루어지고 있는데요 보통 가장 많이 얘기들 하는 것이 유럽 같은 경우입니다.
유럽의 너무나 다양한 논의들, 개인정보나 플랫폼 또는 대형 디지털 서비스 또는 디지털 마켓과 같은 다양한 논의들이 이루어지고 있는데 제가 그 모든 것을 소개할 필요는 없을 것 같고요.
그중에서 EU가 고려했던 사항, 특히나 랭킹 가이드라인을 만들면서 고려했던 사항 세 가지가 있어서 한번 소개를 드리면, 가장 중요한 고려사항으로 첫 번째가 이용자 중심 접근 원칙이라는 겁니다. 그리고 두 번째는 개인화된 평가와 기술적 중립성 원칙, 기술중립성 원칙 같은 경우는 글로벌하게 받아들여지고 있는 매우 중요한 원칙이라고 할 수 있고요. 세 번째가 올바른 수준의 상세화가 필요하다는 겁니다. 그것이 AI 알고리즘의 핵심적인 기능을 왜곡하거나 또는 우회할 수 있도록 만들어지면 안 되겠지만, 그러나 최소한 적정한 수준의, 올바른 수준의 상세화를 통해서 일반 이용자 내지는 국민들에게 투명성을 제고할 필요가 있다는 것이고요.
우리가 참조할 만한 그러한 내용을 제가 33페이지에 제시를 했는데 한번 보시기 바라고요.
또 한편으로 독일 같은 경우는 미디어 중개 플랫폼 사업자의 경우에 투명성 증진과 의견의 다양성을 보장하기 위해서 일정한 규제를 도입하고 있습니다.
이러한 국내외 논의들이 있고 또 미국 같은 경우조차도 물론 입법이 되지는 않았지만 알고리즘 책임 법안을 제시하면서 고위험시스템을 채택한 알고리즘에 대해서 일정한 투명성 의무를 부여하는 형태로 입법 논의가 이루어진 적이 있습니다.
이 외에도 다양한 자율적인 방식 내지는 국내에서도 여러 가지 입법적인 논의, 오늘 이 자리를 포함해 가지고 논의가 이루어지고 있는데요 이런 과정에서 우리가 보면 알고리즘 관련된 이슈는 더 이상 우리가 손 놓고 있을 수 없겠다라는 생각이 듭니다. 알고리즘 관련해 가지고는 점점 더 고도화되어질 것이고 우리 사회의 기반이 될 것이기 때문에 그러한 기반이 되어지는 알고리즘에 대한 규제 틀의 논의는 불가피하다는 생각이 들고 그에 관한 사회적 합의 도출이 선행되어야 될 것 같습니다.
이를 위해서 우리가 고려해야 될 사항들이 있는데요. 우선은 알고리즘의 특수성을 고려해야 될 것 같습니다. 알고리즘을 바라보는 시각이 보통 두 가지 큰 입장이 있는 것 같습니다. 하나는 알고리즘은 단순히 도구일 뿐이기 때문에, 보통 우리가 도구이론을 생각을 하면 도구는 아무 죄가 없지 않습니까. 그러니까 도구로서의 알고리즘을 규제하면 안 된다는 입장이 하나가 있을 수 있고요. 다른 한편으로는 알고리즘이 다른 것과 다르게, 예를 들어 칼과 다르게, 칼은 아무 생각이 없지만 알고리즘을 설계하는 것에 따라 가지고 가치 측면에서 다른 결과가 나올 수 있습니다. 결과적으로는 가치 내재적 속성이 어쩔 수 없이 있는 것이거든요.
이렇게 두 가지 속성, 그러니까 가치중립적 속성과 가치 내재적 속성이 같이 혼재되기 때문에 이 두 가지를 모두 고려한 입법적 노력이 필요한 것 같고요.
그렇기 때문에 가치의 중립적 속성을 고려했을 때는 알고리즘의 개발이나 설계, 운용 과정에서의 투명성을 보장해야 되고 자율성을 보장해야 되지만 다른 한편 가치 내재적 속성으로 인해 가지고 투명성과 책임성을 확보하기 위한 법․제도적인 노력들이 필요한 것 같습니다.
그리고 막상 규제 관점에서도 규제를 실제로 들어가려고 하면 또 역시나 두 가지 충돌되는 관점이 있습니다. 하나는 기억하시겠지만 과거에 언론과 관련해 가지고 포털하고 서로 간에 대립되었을 때 실제로 기사에 사람이 개입하지 못하게 하자라고 하는 취지로 알고리즘을 널리 활용해야 된다는 주장이 있었습니다.
그런데 또 반대로 시간이 흘러가면서 보니까 알고리즘 자체에 문제가 생겨나니까 오히려 알고리즘에 일정한 인적 개입이 필요하다는 논의가 있습니다.
이 두 가지는 사실 계속적으로 충돌되고 있거든요. 이 두 가지를 다 같이 고려하면서 우리가 입법을 해 나가야 될 것 같고요. 그렇기 때문에 인위적인 인적 개입은 차단하면서도 한편으로는 투명성과 공정성을 확보할 수 있는 방향으로 입법적인 작업이 필요하고요.
그래서 제가 생각하기에 고려하셔야 될 사항들은 기본적인 개발이나 설계, 운용 과정에서 자율성은 보장을 하지만 그러나 인공지능 내지는 알고리즘도 결과적으로는 사회를 구성하는 하나의 요소이기 때문에 그에 대한 법적인 개입이 필요할 것 같은데요.
다만 초기 단계에서는 자율 규제나 또는 비강제적 규제를 많이 동원을 해야겠지만 불가피한 경우에는 절차적 혹은 사후적인 규제방식 접근이 필요하지 않을까라는 생각이 들고요.
그리고 특히나 이런 과정에서 의견의 다양성 내지는 여론의 다양성이 고려될 필요가 있습니다. 그러다 보면 가급적이면 실제로 작동되는 알고리즘 자체의 운용에 대해서는 정치성을 배제하고, 다만 실제로 기본 원칙은 국민과 생태계를 중심으로 항상 접근을 하는 것이 올바른 규제 틀이 마련될 수 있다는 생각이 들고요.
마지막으로 드리고 싶은 말씀은 이러한 인공지능과 같은 알고리즘 논의를 하면서 제가 가졌던 생각은, 꽤 많은 분들이 의외로 알고리즘은 투명해야 되지만 그러나 이것은 건드리지 말아야 된다는 말씀들을 하시는 분도 많은데 저는 오히려 알고리즘이야말로 점점 고도화될수록 사회화 과정이 필요하다고 생각합니다. 사람만 사회화가 되는 것이 아니라 AI와 알고리즘도 성장해 가면서 사회화가 필요한 것이거든요. 그래서 그러한 바람직한 사회화 관점에서의 제도적 접근이 필요하지 않을까라는 말씀을 드리면서 진술을 마치겠습니다.
감사합니다.
이렇게 의미 있는 알고리즘 관련된 공청회에서 제가 진술할 수 있게 되어서 기쁘게 생각하고요.
제가 말씀드리고자 하는 것은 이러한 논의의 필요성과 그다음에 국내외 동향 그다음에 어떤 것을 고려해야 되는지, 특히나 여기 계신 위원님들께서는 국민의 대표자이시기 때문에 어떤 것을 합리적으로 고려해야 되는지에 대해서 말씀드리도록 하겠습니다.
사실 알고리즘 이슈는 굉장히 오랫동안 논의되어 왔는데요, 그동안에 주로 법․제도적인 측면에서는 알고리즘보다는 포털에 초점이 맞춰졌습니다. 그런데 포털의 기능에 더해져서 알고리즘이 고도화되다 보니까 고도화되는 알고리즘에 대한 법적인 규제의 틀이 필요하지 않을까라는 논의가 최근 들어서 국내외적으로 많은 논의가 이루어지고 있는 것 같습니다.
그 과정에서 몇 가지 알고리즘의 문제점이 제시된 것들을 보면 사실은 포털의 문제점과 알고리즘의 문제점이 혼재되는 경우도 있는데요. 알고리즘의 문제점을 정리해 보면 여기에 제가 적어 놨는데 보통 가장 많이 말씀들 하시는 것이 노출 기준 공개에 관한 문제입니다. 노출 기준과 관련해 가지고 알고리즘이 부적정하게, 부당하게 운영될 수도 있다는 점, 투명하지 않게 운영될 수 있다는 점이 있을 수 있고요.
또 한편으로는 특히나 저널리즘과 관련되어서 알고리즘에 의하지 않은 임의적인 기사 배치 같은 것도 있을 수 있는데 사실 이와 함께 똑같은 문제가 알고리즘에 의해 가지고도 부당하게 나타날 수 있지만 부당하게 사람이 개입해서 알고리즘을 넘어서 가지고 오버라이드(override)함으로써 발생하는 문제도 생겨날 수 있거든요. 이런 두 가지 문제가 있을 수 있고요.
또 하나는 알고리즘 기반의 개인화된 광고가 사람한테 편익을 주는 것 같지만 또 다른 한편으로는 가격 차별이 개인별로 이루어질 수도 있습니다. 이런 문제가 생겨날 수도 있고, 그 연장선상에서 프라이버시 침해도 발생될 수 있습니다.
그리고 알고리즘의 작동원리를 이용한 고의적인 외부적인 데이터 왜곡 같은 것들이 발생할 수도 있고요. 학습되거나 또는 학습된 데이터가 오염이 되거나 또는 편향된 데이터가 학습되었을 경우와 같이 그러한 데이터를 학습한 알고리즘에 문제점이 생겨날 수 있습니다. 보통 이것은 편향된 문제가 결과적으로 차별의 문제와 연결되기 때문에 법적으로 심각한 문제가 될 수 있고요.
그리고 이 전반적인 과정에서 알고리즘에 의한 데이터 처리라든가 또는 정보 제공 과정에서 개인정보 침해 문제 내지는 사람의 기본적인 자유와 권리에 대한 침해 문제가 발생될 수 있습니다.
이러한 문제에 대한 문제점을 인식해서 우리나라뿐만 아니라 해외에서도 다양한 논의가 이루어지고 있는데요 보통 가장 많이 얘기들 하는 것이 유럽 같은 경우입니다.
유럽의 너무나 다양한 논의들, 개인정보나 플랫폼 또는 대형 디지털 서비스 또는 디지털 마켓과 같은 다양한 논의들이 이루어지고 있는데 제가 그 모든 것을 소개할 필요는 없을 것 같고요.
그중에서 EU가 고려했던 사항, 특히나 랭킹 가이드라인을 만들면서 고려했던 사항 세 가지가 있어서 한번 소개를 드리면, 가장 중요한 고려사항으로 첫 번째가 이용자 중심 접근 원칙이라는 겁니다. 그리고 두 번째는 개인화된 평가와 기술적 중립성 원칙, 기술중립성 원칙 같은 경우는 글로벌하게 받아들여지고 있는 매우 중요한 원칙이라고 할 수 있고요. 세 번째가 올바른 수준의 상세화가 필요하다는 겁니다. 그것이 AI 알고리즘의 핵심적인 기능을 왜곡하거나 또는 우회할 수 있도록 만들어지면 안 되겠지만, 그러나 최소한 적정한 수준의, 올바른 수준의 상세화를 통해서 일반 이용자 내지는 국민들에게 투명성을 제고할 필요가 있다는 것이고요.
우리가 참조할 만한 그러한 내용을 제가 33페이지에 제시를 했는데 한번 보시기 바라고요.
또 한편으로 독일 같은 경우는 미디어 중개 플랫폼 사업자의 경우에 투명성 증진과 의견의 다양성을 보장하기 위해서 일정한 규제를 도입하고 있습니다.
이러한 국내외 논의들이 있고 또 미국 같은 경우조차도 물론 입법이 되지는 않았지만 알고리즘 책임 법안을 제시하면서 고위험시스템을 채택한 알고리즘에 대해서 일정한 투명성 의무를 부여하는 형태로 입법 논의가 이루어진 적이 있습니다.
이 외에도 다양한 자율적인 방식 내지는 국내에서도 여러 가지 입법적인 논의, 오늘 이 자리를 포함해 가지고 논의가 이루어지고 있는데요 이런 과정에서 우리가 보면 알고리즘 관련된 이슈는 더 이상 우리가 손 놓고 있을 수 없겠다라는 생각이 듭니다. 알고리즘 관련해 가지고는 점점 더 고도화되어질 것이고 우리 사회의 기반이 될 것이기 때문에 그러한 기반이 되어지는 알고리즘에 대한 규제 틀의 논의는 불가피하다는 생각이 들고 그에 관한 사회적 합의 도출이 선행되어야 될 것 같습니다.
이를 위해서 우리가 고려해야 될 사항들이 있는데요. 우선은 알고리즘의 특수성을 고려해야 될 것 같습니다. 알고리즘을 바라보는 시각이 보통 두 가지 큰 입장이 있는 것 같습니다. 하나는 알고리즘은 단순히 도구일 뿐이기 때문에, 보통 우리가 도구이론을 생각을 하면 도구는 아무 죄가 없지 않습니까. 그러니까 도구로서의 알고리즘을 규제하면 안 된다는 입장이 하나가 있을 수 있고요. 다른 한편으로는 알고리즘이 다른 것과 다르게, 예를 들어 칼과 다르게, 칼은 아무 생각이 없지만 알고리즘을 설계하는 것에 따라 가지고 가치 측면에서 다른 결과가 나올 수 있습니다. 결과적으로는 가치 내재적 속성이 어쩔 수 없이 있는 것이거든요.
이렇게 두 가지 속성, 그러니까 가치중립적 속성과 가치 내재적 속성이 같이 혼재되기 때문에 이 두 가지를 모두 고려한 입법적 노력이 필요한 것 같고요.
그렇기 때문에 가치의 중립적 속성을 고려했을 때는 알고리즘의 개발이나 설계, 운용 과정에서의 투명성을 보장해야 되고 자율성을 보장해야 되지만 다른 한편 가치 내재적 속성으로 인해 가지고 투명성과 책임성을 확보하기 위한 법․제도적인 노력들이 필요한 것 같습니다.
그리고 막상 규제 관점에서도 규제를 실제로 들어가려고 하면 또 역시나 두 가지 충돌되는 관점이 있습니다. 하나는 기억하시겠지만 과거에 언론과 관련해 가지고 포털하고 서로 간에 대립되었을 때 실제로 기사에 사람이 개입하지 못하게 하자라고 하는 취지로 알고리즘을 널리 활용해야 된다는 주장이 있었습니다.
그런데 또 반대로 시간이 흘러가면서 보니까 알고리즘 자체에 문제가 생겨나니까 오히려 알고리즘에 일정한 인적 개입이 필요하다는 논의가 있습니다.
이 두 가지는 사실 계속적으로 충돌되고 있거든요. 이 두 가지를 다 같이 고려하면서 우리가 입법을 해 나가야 될 것 같고요. 그렇기 때문에 인위적인 인적 개입은 차단하면서도 한편으로는 투명성과 공정성을 확보할 수 있는 방향으로 입법적인 작업이 필요하고요.
그래서 제가 생각하기에 고려하셔야 될 사항들은 기본적인 개발이나 설계, 운용 과정에서 자율성은 보장을 하지만 그러나 인공지능 내지는 알고리즘도 결과적으로는 사회를 구성하는 하나의 요소이기 때문에 그에 대한 법적인 개입이 필요할 것 같은데요.
다만 초기 단계에서는 자율 규제나 또는 비강제적 규제를 많이 동원을 해야겠지만 불가피한 경우에는 절차적 혹은 사후적인 규제방식 접근이 필요하지 않을까라는 생각이 들고요.
그리고 특히나 이런 과정에서 의견의 다양성 내지는 여론의 다양성이 고려될 필요가 있습니다. 그러다 보면 가급적이면 실제로 작동되는 알고리즘 자체의 운용에 대해서는 정치성을 배제하고, 다만 실제로 기본 원칙은 국민과 생태계를 중심으로 항상 접근을 하는 것이 올바른 규제 틀이 마련될 수 있다는 생각이 들고요.
마지막으로 드리고 싶은 말씀은 이러한 인공지능과 같은 알고리즘 논의를 하면서 제가 가졌던 생각은, 꽤 많은 분들이 의외로 알고리즘은 투명해야 되지만 그러나 이것은 건드리지 말아야 된다는 말씀들을 하시는 분도 많은데 저는 오히려 알고리즘이야말로 점점 고도화될수록 사회화 과정이 필요하다고 생각합니다. 사람만 사회화가 되는 것이 아니라 AI와 알고리즘도 성장해 가면서 사회화가 필요한 것이거든요. 그래서 그러한 바람직한 사회화 관점에서의 제도적 접근이 필요하지 않을까라는 말씀을 드리면서 진술을 마치겠습니다.
감사합니다.
수고하셨습니다.
마지막으로 김동원 언론노조 정책실장님 진술해 주십시오.
5분입니다.
마지막으로 김동원 언론노조 정책실장님 진술해 주십시오.
5분입니다.

예, 알겠습니다.
늦어서 죄송합니다.
언론노조 정책실장 김동원입니다.
앞의 선생님들께서 주로 법적 문제라든가 그다음에 윤리의 문제를 제기하셨다면…… 최근에 언론노조 정책실이 서울시장과 부산시장, 특히 서울시장 보궐선거에서 네이버의 많이 본 뉴스 결과를 분석한 적이 있었습니다. 그게 알고리즘을 갖다가 저희들이 분석할 수 있는 것은 아니었고요. 다만 많이 본 뉴스라고 나왔던 결과물들을 가지고 실제로 언론사들이 네이버에 뉴스를 송고했을 때 최종 결과가 어떻게 나왔는지를 본 것입니다.
사실 알고리즘을 분석한다는 것은 사회과학자들이나, 굉장히 어려운 주제입니다. 그러니까 소스코드에 대한 분석부터 시작해서 역엔지니어링이라고 해서 검증하는 방법이지요.
여러 가지 방법들이 있는데 지금 현재 카카오와 네이버가 몇 편의 논문으로 아주 간단하게 개요를 설명한 게 있습니다. 대표적인 게 2017년에 개발 단계에서 네이버 에어스(AiRS)가 싱가포르에 있는 컨벤션에서 영문 저널을 발표했었고요. 그리고 작년 12월에 네이버에서 ‘관훈저널’에다가 네이버 뉴스 알고리즘을 간단하게 소개한 게 있었습니다.
또 하나 제가 유심히 봤던 것은 2017년에 카카오에서 기계학습 기반의 뉴스 추천 서비스 구조, 다시 말해서 RUBICS를 처음 개발했을 때 그것이 어떤 효과를 가졌는지를 본 그런 검사들이 있었습니다. 이러한 것들을 보고서 저도 제한된 한계 내에서 소개를 시켜 드릴 수밖에 없을 것 같은데요.
6페이지에 있는 것처럼 대부분의 사업자들이 소개한 알고리즘의 범위가 세 가지가 있다고 저는 보여집니다.
첫 번째는 뉴스콘텐츠를 묶고 그 위계를 설정하는 영역이 있고요. 또 뉴스콘텐츠의 품질을 평가하는 영역이 있습니다. 그리고 뉴스 이용자의 행태를 묶고 예측하는 영역이 있습니다. 알고리즘이라고 해서 하나의 논리함수나 순서도가 아닙니다. 이렇게 세 영역으로 갈라져 있기 때문에 이 세 영역이 서로 긴밀하게 주고받으면서 뉴스 추천의 시스템이 만들어집니다.
그래서 저희 법안에 알고리즘에 대한 공개 또는 기사 배열에 대한 공개라고 얘기하게 되면 이것이 기사 배열만 공개하면 되는 것인지, 이용자 행동을 추적하게 해야 되는 것인지 그리고 뉴스의 배치, 뉴스 품질 평가까지도 다 해야 되는 것인지가 굉장히 모호합니다. 그래서 법안에 있는 기사 배열이라고 되어 있는 부분들이 신문법에 의해서 용어가 온 걸로 알고 있습니다마는 불가피하더라도 좀 더 구체적으로 하는 것이 좋겠다라는 생각이 들고요.
많은 설명을 드리지 못하니까 저희들이 쓰는 흔히 알고 있는 상식적인 용어와 알고리즘의 용어가 어떻게 다른지만 말씀을 드리겠습니다.
기본적으로 양 사가 다 똑같을 것 같습니다마는 기본적으로 알고리즘은 동일한 시간대에 많은 언론사가 기사를 많이 송고를 하면 그 기사가 중요한 이슈라고 판단합니다.
이게 무슨 문제냐면 과거에 서울시장선거 때 제가 기억하기로는 사전투표일 날 어마어마하게 많은 뉴스가 쏟아졌습니다. 그렇게 될 경우에는 이 알고리즘들은 대부분 30분 동안에 60만 건이 쏟아졌다고 그러면 이것은 알고리즘이 중요한 이슈다라고 해서 보내는 거지요. 그런데 문제는 그 30분이라는 시간 동안에 퀄리티가 있는 저널리즘인지 아니면 연합뉴스를 갖다가 베껴 쓴 저널리즘인지 구분을 못 한다는 겁니다. 물론 이것이 구분도 가능합니다.
뉴스 품질 평가를 하기 위해서 알고리즘이 작동을 하는데요. 이때 품질 평가는 엄밀하게 말씀드리면 좋은 기사가 아니라 인공지능이 학습을 통해 가지고 A하고 B라는 기사 중에서 A를 선택하면 A라는 기사는 사람들이 오래 그리고 많이 볼 것이다라는 예측입니다.
그래서 저희가 예를 들면 카카오에서 클릭률이라는 말을 하고 있는데 클릭률이라고 하는 것은 기사를 다 본 다음에 전체 기사 중에서 클릭 점유율이 몇 %냐 이게 아니라 그 클릭률은 이 기사를 택했을 때의 이 기사는 얼마만큼의 조회 수와 체류시간을 보일 것인가에 대한 예측이라는 거지요. 그러니까 상당 부분이 저희들이 알고 있는 그러한 용어들과 굉장히 다른 방식으로 알고리즘을 만들 때 쓰입니다.
좀 과감하게 너무 단순화시켜서 말씀해서 죄송하지만 알고리즘은 확률과 예측의 싸움이고 그것이 우리가 알고 있는 것처럼 어떤 방정식이라든가 그렇게 딱 떨어진 답이 나오는 게 아니라는 점을 말씀을 드리고 싶었습니다.
마찬가지로 흥미로운 것은 알고리즘은 콘텐츠와 사람을 별로 구분하지 않습니다. 그러니까 콘텐츠에서 중요한 특성을 뽑아야 되는 방식이나 이용자들을 갖다가 동일한 이용자 집단으로 묶는 그러한 방식은 알고리즘에게 대상이 사람인지 또는 기사인지를 구분하지 않는 그런 부분들이 분명히 있습니다.
따라서 디지털 언어에서 알고리즘이라고 하는 것은 이용자라는 사람과 저널리스트의 생산물인 콘텐츠를 구분하지 않는다는 것, 그래서 대표적으로 AiRS가 하는 것처럼 한 이용자에게는 그와 비슷한 관심사를 가진 다른 이용자들이 선택한 뉴스가 똑같이 좋은 뉴스일 것이다, 유용한 뉴스일 것이다라고 판단을 내리는 거지요.
11페이지를 좀 보시면……
빨리 끝내겠습니다.
보시면, 하고 싶은 얘기가 이거였는데요. 네이버의 많이 본 뉴스라는 결과는 알고리즘만의 문제가 아닙니다. 알고리즘에 데이터를 집어넣게 되는 언론사들의 디지털 역량에 따라 다릅니다. 실제로 봤을 때 네이버의 많이 본 뉴스 서울시장선거의 결과 부분에서는 조선일보와 중앙일보가 압도적이었습니다. 그 이유는 뭐냐 하면 그만큼 표에 나와 있는 것처럼 조선과 중앙이 상당히 튼튼한 디지털 인프라와 24시간 뉴스를 추적하는 시스템, 조직구조, 그런 것들을 갖추고 있기 때문에 그런 것이지 이것이 알고리즘이 조선일보에 편향됐다고 보기는 어려울 것 같습니다. 도리어 이런 것은 언론사들 간의 빈익빈 부익부를 더 부추기는 현상입니다. 돈이 있고 자산이 있고 인력이 있는 언론사들은 지금 현재의 알고리즘을 통해서 더 많은 뉴스를 뽑아낼 수가 있고 그렇지 못한 언론사들은 굉장히 낮은 수준의 것만 뽑아낼 수 있는 경우가 있습니다.
그래서 제 판단은 알고리즘을 공개하는데, 문제는 공개 수준입니다. 소스코드까지 다 공개할 거냐, 저는 그것은 어렵다고 봅니다. 다만 2017년에 카카오에서 소개했던 것처럼 기본적으로, 논문이었는데요. 어떻게 보면 저널리스트라든가 일반 학자들이 이용할 수 있는 정도 수준의 투명성 보고서를 제출해서, 정확히 얘기해서 좀 솔직해졌으면 좋겠습니다, 카카오나 네이버가. 현재의 알고리즘 기준으로는 심층보도라든가 퀄리티 있는 저널리즘의 기사들을 충분하게 솎아내지 못하고 배열을 할 수가 없다라고 하는 한계들을 분명히 인정하는 것이 투명성 보고서의 목적이 되어야 되고요. 그런 것이 있을 때만이 언론사들이 거기에 대응을 해서 우리는 어떤 기사를 어떻게 쓸 것인가에 대한 논의와 분류를 할 수 있을 거라고 생각합니다.
제일 중요한 부분은 네이버나 카카오의 알고리즘의 공개와 더불어서 알고리즘이 저널리즘의 언어에 대해서 갖는 한계를 스스로 인정하는 것부터 시작해야 된다고 봅니다.
길어져서 죄송합니다.
늦어서 죄송합니다.
언론노조 정책실장 김동원입니다.
앞의 선생님들께서 주로 법적 문제라든가 그다음에 윤리의 문제를 제기하셨다면…… 최근에 언론노조 정책실이 서울시장과 부산시장, 특히 서울시장 보궐선거에서 네이버의 많이 본 뉴스 결과를 분석한 적이 있었습니다. 그게 알고리즘을 갖다가 저희들이 분석할 수 있는 것은 아니었고요. 다만 많이 본 뉴스라고 나왔던 결과물들을 가지고 실제로 언론사들이 네이버에 뉴스를 송고했을 때 최종 결과가 어떻게 나왔는지를 본 것입니다.
사실 알고리즘을 분석한다는 것은 사회과학자들이나, 굉장히 어려운 주제입니다. 그러니까 소스코드에 대한 분석부터 시작해서 역엔지니어링이라고 해서 검증하는 방법이지요.
여러 가지 방법들이 있는데 지금 현재 카카오와 네이버가 몇 편의 논문으로 아주 간단하게 개요를 설명한 게 있습니다. 대표적인 게 2017년에 개발 단계에서 네이버 에어스(AiRS)가 싱가포르에 있는 컨벤션에서 영문 저널을 발표했었고요. 그리고 작년 12월에 네이버에서 ‘관훈저널’에다가 네이버 뉴스 알고리즘을 간단하게 소개한 게 있었습니다.
또 하나 제가 유심히 봤던 것은 2017년에 카카오에서 기계학습 기반의 뉴스 추천 서비스 구조, 다시 말해서 RUBICS를 처음 개발했을 때 그것이 어떤 효과를 가졌는지를 본 그런 검사들이 있었습니다. 이러한 것들을 보고서 저도 제한된 한계 내에서 소개를 시켜 드릴 수밖에 없을 것 같은데요.
6페이지에 있는 것처럼 대부분의 사업자들이 소개한 알고리즘의 범위가 세 가지가 있다고 저는 보여집니다.
첫 번째는 뉴스콘텐츠를 묶고 그 위계를 설정하는 영역이 있고요. 또 뉴스콘텐츠의 품질을 평가하는 영역이 있습니다. 그리고 뉴스 이용자의 행태를 묶고 예측하는 영역이 있습니다. 알고리즘이라고 해서 하나의 논리함수나 순서도가 아닙니다. 이렇게 세 영역으로 갈라져 있기 때문에 이 세 영역이 서로 긴밀하게 주고받으면서 뉴스 추천의 시스템이 만들어집니다.
그래서 저희 법안에 알고리즘에 대한 공개 또는 기사 배열에 대한 공개라고 얘기하게 되면 이것이 기사 배열만 공개하면 되는 것인지, 이용자 행동을 추적하게 해야 되는 것인지 그리고 뉴스의 배치, 뉴스 품질 평가까지도 다 해야 되는 것인지가 굉장히 모호합니다. 그래서 법안에 있는 기사 배열이라고 되어 있는 부분들이 신문법에 의해서 용어가 온 걸로 알고 있습니다마는 불가피하더라도 좀 더 구체적으로 하는 것이 좋겠다라는 생각이 들고요.
많은 설명을 드리지 못하니까 저희들이 쓰는 흔히 알고 있는 상식적인 용어와 알고리즘의 용어가 어떻게 다른지만 말씀을 드리겠습니다.
기본적으로 양 사가 다 똑같을 것 같습니다마는 기본적으로 알고리즘은 동일한 시간대에 많은 언론사가 기사를 많이 송고를 하면 그 기사가 중요한 이슈라고 판단합니다.
이게 무슨 문제냐면 과거에 서울시장선거 때 제가 기억하기로는 사전투표일 날 어마어마하게 많은 뉴스가 쏟아졌습니다. 그렇게 될 경우에는 이 알고리즘들은 대부분 30분 동안에 60만 건이 쏟아졌다고 그러면 이것은 알고리즘이 중요한 이슈다라고 해서 보내는 거지요. 그런데 문제는 그 30분이라는 시간 동안에 퀄리티가 있는 저널리즘인지 아니면 연합뉴스를 갖다가 베껴 쓴 저널리즘인지 구분을 못 한다는 겁니다. 물론 이것이 구분도 가능합니다.
뉴스 품질 평가를 하기 위해서 알고리즘이 작동을 하는데요. 이때 품질 평가는 엄밀하게 말씀드리면 좋은 기사가 아니라 인공지능이 학습을 통해 가지고 A하고 B라는 기사 중에서 A를 선택하면 A라는 기사는 사람들이 오래 그리고 많이 볼 것이다라는 예측입니다.
그래서 저희가 예를 들면 카카오에서 클릭률이라는 말을 하고 있는데 클릭률이라고 하는 것은 기사를 다 본 다음에 전체 기사 중에서 클릭 점유율이 몇 %냐 이게 아니라 그 클릭률은 이 기사를 택했을 때의 이 기사는 얼마만큼의 조회 수와 체류시간을 보일 것인가에 대한 예측이라는 거지요. 그러니까 상당 부분이 저희들이 알고 있는 그러한 용어들과 굉장히 다른 방식으로 알고리즘을 만들 때 쓰입니다.
좀 과감하게 너무 단순화시켜서 말씀해서 죄송하지만 알고리즘은 확률과 예측의 싸움이고 그것이 우리가 알고 있는 것처럼 어떤 방정식이라든가 그렇게 딱 떨어진 답이 나오는 게 아니라는 점을 말씀을 드리고 싶었습니다.
마찬가지로 흥미로운 것은 알고리즘은 콘텐츠와 사람을 별로 구분하지 않습니다. 그러니까 콘텐츠에서 중요한 특성을 뽑아야 되는 방식이나 이용자들을 갖다가 동일한 이용자 집단으로 묶는 그러한 방식은 알고리즘에게 대상이 사람인지 또는 기사인지를 구분하지 않는 그런 부분들이 분명히 있습니다.
따라서 디지털 언어에서 알고리즘이라고 하는 것은 이용자라는 사람과 저널리스트의 생산물인 콘텐츠를 구분하지 않는다는 것, 그래서 대표적으로 AiRS가 하는 것처럼 한 이용자에게는 그와 비슷한 관심사를 가진 다른 이용자들이 선택한 뉴스가 똑같이 좋은 뉴스일 것이다, 유용한 뉴스일 것이다라고 판단을 내리는 거지요.
11페이지를 좀 보시면……
빨리 끝내겠습니다.
보시면, 하고 싶은 얘기가 이거였는데요. 네이버의 많이 본 뉴스라는 결과는 알고리즘만의 문제가 아닙니다. 알고리즘에 데이터를 집어넣게 되는 언론사들의 디지털 역량에 따라 다릅니다. 실제로 봤을 때 네이버의 많이 본 뉴스 서울시장선거의 결과 부분에서는 조선일보와 중앙일보가 압도적이었습니다. 그 이유는 뭐냐 하면 그만큼 표에 나와 있는 것처럼 조선과 중앙이 상당히 튼튼한 디지털 인프라와 24시간 뉴스를 추적하는 시스템, 조직구조, 그런 것들을 갖추고 있기 때문에 그런 것이지 이것이 알고리즘이 조선일보에 편향됐다고 보기는 어려울 것 같습니다. 도리어 이런 것은 언론사들 간의 빈익빈 부익부를 더 부추기는 현상입니다. 돈이 있고 자산이 있고 인력이 있는 언론사들은 지금 현재의 알고리즘을 통해서 더 많은 뉴스를 뽑아낼 수가 있고 그렇지 못한 언론사들은 굉장히 낮은 수준의 것만 뽑아낼 수 있는 경우가 있습니다.
그래서 제 판단은 알고리즘을 공개하는데, 문제는 공개 수준입니다. 소스코드까지 다 공개할 거냐, 저는 그것은 어렵다고 봅니다. 다만 2017년에 카카오에서 소개했던 것처럼 기본적으로, 논문이었는데요. 어떻게 보면 저널리스트라든가 일반 학자들이 이용할 수 있는 정도 수준의 투명성 보고서를 제출해서, 정확히 얘기해서 좀 솔직해졌으면 좋겠습니다, 카카오나 네이버가. 현재의 알고리즘 기준으로는 심층보도라든가 퀄리티 있는 저널리즘의 기사들을 충분하게 솎아내지 못하고 배열을 할 수가 없다라고 하는 한계들을 분명히 인정하는 것이 투명성 보고서의 목적이 되어야 되고요. 그런 것이 있을 때만이 언론사들이 거기에 대응을 해서 우리는 어떤 기사를 어떻게 쓸 것인가에 대한 논의와 분류를 할 수 있을 거라고 생각합니다.
제일 중요한 부분은 네이버나 카카오의 알고리즘의 공개와 더불어서 알고리즘이 저널리즘의 언어에 대해서 갖는 한계를 스스로 인정하는 것부터 시작해야 된다고 봅니다.
길어져서 죄송합니다.
수고하셨습니다.
그러면 지금 들으신 발표와 관련하여 위원님들께서 질의하실 순서이십니다.
참고로 진술인 상호 간에는 질문과 토론이 허락되지 않음을 알려 드리겠습니다.
위원님들의 토론 시간은 5분으로 하겠습니다.
먼저 변재일 위원님 질의 시작해 주십시오.
그러면 지금 들으신 발표와 관련하여 위원님들께서 질의하실 순서이십니다.
참고로 진술인 상호 간에는 질문과 토론이 허락되지 않음을 알려 드리겠습니다.
위원님들의 토론 시간은 5분으로 하겠습니다.
먼저 변재일 위원님 질의 시작해 주십시오.
진술인들 말씀 잘 들었는데요.
알고리즘이 가지고 있는 문제점에 대해서는 다들 인정하시네요, 그러니까. 어떤 형태든 투명성을 확보해야 된다 그런 차원에서도 다들 인정하시는 거지요. 특별히 거기에 대해서 근본적인 반대를 하시는 분은 없네요.
제가 생각하기에는 지난 일이지만 과거에는 신문에 났다, 방송에서 봤다 하면 그것이 진실로 받아들여지는 시대가 있었습니다. 그러다가 이제는 어느 누구도 신문에 났다, 방송에 났다 하는 것 자체에 대해서 크게 신뢰를 많이 안 하는 시대까지 된 것이 아니냐, 그것은 어떻게 본다면 우리가 신문이나 방송을 보면서 편향성을 인정하는 사회가 되어 버렸거든요. 그러니까 편향성을 인정해 버리고서 보기 때문에, 다양성 속에서 보기 때문에 어느 정도 되는데 지금은 신문․방송보다도 가장 중요하게 된 것이 포털이라는 말이지요. 더군다나 4차 산업혁명이다 또 코로나19 팬데믹 속에서 온라인 사회로의 급속한 전환이 되다 보니까 온라인에 대한 의존도가 커지면서 뉴스라든지 상품의 검색이라든지 그런 것들이 모두 포털에서, 유튜브라든지 네이버라든지 아니면 대형 플랫폼에서 이뤄지기 때문에 여기서 내가 얻는 정보라든지 상품의 정보라든지 모든 것들이 과연 공정하고 정확한 거냐 여기에 대한 시민들, 소비자들의 불안이 점점 더 증폭되어 가고 있는 상태거든요. 최소한도 알고리즘이 어떻게 작동되는 것이냐, 알고리즘이 어떻게 설계되는 것이냐, 내가 받은 지식과 정보 검색된 것이 진짜 공정하고 투명한 논의의 결과냐, 내가 검색한 상품이라는 것이 제대로 검색한 거냐, 여기에 대해서 일반 국민들이나 시민들이, 소비자들이 불안해하지 않는 그런 상황은 이제는 분명히 만들어 줘야 되는 시대가 된 것이 아닌가 이렇게 보고 있습니다.
그래서 물론 알고리즘의 편향성 문제를 극복하고 또 일부 참고인, 진술인께서 말씀하신 대로 알고리즘뿐만 아니라 거기에 들어가는 데이터에 편향성은 없는지까지도 어떤 형태든 진짜 증명해 줌으로써 국민들이 좀 더 불안해하지 않는 또 공정한 정보를 얻고 공정한 상품을 구매할 수 있는 환경을 만들어 주는 것도 전문가들의 영역이고 정부의 역할이고 국회의 역할이라고 보고 있거든요.
그래서 방송통신위원회하고 과학기술정보통신부에서 그런 문제를 해소하기 위해서 가이드라인을 만들어서 적용하고 있는데 가이드라인에 어떤 구속력이 없기 때문에 이제는 법을 제정해서 구속력 있는 지침을 줌으로써 소비자와 이용자들을 보호해야 되는 것이 아니냐 그런 것들이 현재 정치권에서 가지고 있는 근본적인 견해입니다.
물론 그런 과정에서 어느 정도 수준까지 할 것이냐 하는 문제는 법에서 정할 수도 있고 대통령령에 위임해서 행정부에서 여러 가지 시장 상황이라든지 정보시장의 상황을 봐서 결정할 수 있겠지만 근본적으로는 어떤 형태든 이제는 알고리즘에 대해서 투명성과 공정성을 확보해 나갈 수 있는 법적․제도적 장치를 마련해야 된다 이렇게 보고 있습니다.
지금 시기상조라는 말이 일부 있습니다마는 지금 태어나는 젊은 아이들은 이제는 휴대폰을 들고 태어났다 할 정도로 온라인의 의존도가 상당히 심한 세대입니다. 그 사람들이 온라인에서 오는 정보가 정확한 정보다, 믿어도 된다 이런 사례를 만들어 주는 것도 현재 기성세대의 책무라고 보고 있거든요. 그래서 온라인에 대해서, 알고리즘에 대해서 근본적인 규제, 어떤 형태든 규제가 들어가고 투명성과 공개성이 보장되어야 된다 이런 제도적 장치를 만드는 데 대해서는 특별하게 이견이 있으신 진술인은 없으시지요?
한 분씩 말씀해 주시기 바랍니다. 아까 진술한 순서대로 말씀해 주시지요.
알고리즘이 가지고 있는 문제점에 대해서는 다들 인정하시네요, 그러니까. 어떤 형태든 투명성을 확보해야 된다 그런 차원에서도 다들 인정하시는 거지요. 특별히 거기에 대해서 근본적인 반대를 하시는 분은 없네요.
제가 생각하기에는 지난 일이지만 과거에는 신문에 났다, 방송에서 봤다 하면 그것이 진실로 받아들여지는 시대가 있었습니다. 그러다가 이제는 어느 누구도 신문에 났다, 방송에 났다 하는 것 자체에 대해서 크게 신뢰를 많이 안 하는 시대까지 된 것이 아니냐, 그것은 어떻게 본다면 우리가 신문이나 방송을 보면서 편향성을 인정하는 사회가 되어 버렸거든요. 그러니까 편향성을 인정해 버리고서 보기 때문에, 다양성 속에서 보기 때문에 어느 정도 되는데 지금은 신문․방송보다도 가장 중요하게 된 것이 포털이라는 말이지요. 더군다나 4차 산업혁명이다 또 코로나19 팬데믹 속에서 온라인 사회로의 급속한 전환이 되다 보니까 온라인에 대한 의존도가 커지면서 뉴스라든지 상품의 검색이라든지 그런 것들이 모두 포털에서, 유튜브라든지 네이버라든지 아니면 대형 플랫폼에서 이뤄지기 때문에 여기서 내가 얻는 정보라든지 상품의 정보라든지 모든 것들이 과연 공정하고 정확한 거냐 여기에 대한 시민들, 소비자들의 불안이 점점 더 증폭되어 가고 있는 상태거든요. 최소한도 알고리즘이 어떻게 작동되는 것이냐, 알고리즘이 어떻게 설계되는 것이냐, 내가 받은 지식과 정보 검색된 것이 진짜 공정하고 투명한 논의의 결과냐, 내가 검색한 상품이라는 것이 제대로 검색한 거냐, 여기에 대해서 일반 국민들이나 시민들이, 소비자들이 불안해하지 않는 그런 상황은 이제는 분명히 만들어 줘야 되는 시대가 된 것이 아닌가 이렇게 보고 있습니다.
그래서 물론 알고리즘의 편향성 문제를 극복하고 또 일부 참고인, 진술인께서 말씀하신 대로 알고리즘뿐만 아니라 거기에 들어가는 데이터에 편향성은 없는지까지도 어떤 형태든 진짜 증명해 줌으로써 국민들이 좀 더 불안해하지 않는 또 공정한 정보를 얻고 공정한 상품을 구매할 수 있는 환경을 만들어 주는 것도 전문가들의 영역이고 정부의 역할이고 국회의 역할이라고 보고 있거든요.
그래서 방송통신위원회하고 과학기술정보통신부에서 그런 문제를 해소하기 위해서 가이드라인을 만들어서 적용하고 있는데 가이드라인에 어떤 구속력이 없기 때문에 이제는 법을 제정해서 구속력 있는 지침을 줌으로써 소비자와 이용자들을 보호해야 되는 것이 아니냐 그런 것들이 현재 정치권에서 가지고 있는 근본적인 견해입니다.
물론 그런 과정에서 어느 정도 수준까지 할 것이냐 하는 문제는 법에서 정할 수도 있고 대통령령에 위임해서 행정부에서 여러 가지 시장 상황이라든지 정보시장의 상황을 봐서 결정할 수 있겠지만 근본적으로는 어떤 형태든 이제는 알고리즘에 대해서 투명성과 공정성을 확보해 나갈 수 있는 법적․제도적 장치를 마련해야 된다 이렇게 보고 있습니다.
지금 시기상조라는 말이 일부 있습니다마는 지금 태어나는 젊은 아이들은 이제는 휴대폰을 들고 태어났다 할 정도로 온라인의 의존도가 상당히 심한 세대입니다. 그 사람들이 온라인에서 오는 정보가 정확한 정보다, 믿어도 된다 이런 사례를 만들어 주는 것도 현재 기성세대의 책무라고 보고 있거든요. 그래서 온라인에 대해서, 알고리즘에 대해서 근본적인 규제, 어떤 형태든 규제가 들어가고 투명성과 공개성이 보장되어야 된다 이런 제도적 장치를 만드는 데 대해서는 특별하게 이견이 있으신 진술인은 없으시지요?
한 분씩 말씀해 주시기 바랍니다. 아까 진술한 순서대로 말씀해 주시지요.

김진욱 변호사입니다.
위원님 말씀에 전적으로 공감을 하고요. 양대 포털, 특히 네이버 같은 경우에 과거에 어떤 특정 외부인의 주문 내지는 요청에 따라서 노출되고 있는 콘텐츠를 임의로 삭제한다든지 또 노출에서 배제시킨다든지 이런 문제들이 시작이 되어서 이렇게 포털에서 노출되는 콘텐츠 또는 언론기사 등이 포털사의 어떤 자체 기준 내지는 그 기준과 관계없이도 임의로 편집될 수 있다는 부분이 만천하에 공개가 되었고 이것이 오늘 이렇게 포털 알고리즘 공청회로까지 이어진 것으로 보이고 여든 야든 정당에서 포털 알고리즘과 관련된 법안들을 발의하신 것으로 그렇게 이해가 됩니다.
어찌 됐든 포털 알고리즘은 투명하게 공개가 되어서 국민들이 나한테 제공되는 콘텐츠가 신뢰가 가능한 콘텐츠라는 것에 대한 문화 내지는 분위기가 조성될 필요는 당연히 있다고 생각되고요. 그런 측면에서 오늘 출석한 양대 포털에서 큰 기여를 했다고 반어적으로도 볼 수 있을 것 같습니다.
위원님 말씀에 전적으로 공감을 하고요. 양대 포털, 특히 네이버 같은 경우에 과거에 어떤 특정 외부인의 주문 내지는 요청에 따라서 노출되고 있는 콘텐츠를 임의로 삭제한다든지 또 노출에서 배제시킨다든지 이런 문제들이 시작이 되어서 이렇게 포털에서 노출되는 콘텐츠 또는 언론기사 등이 포털사의 어떤 자체 기준 내지는 그 기준과 관계없이도 임의로 편집될 수 있다는 부분이 만천하에 공개가 되었고 이것이 오늘 이렇게 포털 알고리즘 공청회로까지 이어진 것으로 보이고 여든 야든 정당에서 포털 알고리즘과 관련된 법안들을 발의하신 것으로 그렇게 이해가 됩니다.
어찌 됐든 포털 알고리즘은 투명하게 공개가 되어서 국민들이 나한테 제공되는 콘텐츠가 신뢰가 가능한 콘텐츠라는 것에 대한 문화 내지는 분위기가 조성될 필요는 당연히 있다고 생각되고요. 그런 측면에서 오늘 출석한 양대 포털에서 큰 기여를 했다고 반어적으로도 볼 수 있을 것 같습니다.

당연히 공정하고 투명해야 되고요. 그렇지만 어느 수준이냐가 늘 문제일 겁니다. 그래서 단순히 만 원짜리 물건을 사는 걸 추천받는 것하고 아까 이야기 나오신 한국의 중요한 도시의 시장과 관련되는 것하고는 이야기가 달라질 수밖에 없고요. 그래서 이걸 일괄적으로 어느 수준이라고 말씀하고 법을, 규정을 정하시기보다는 법에서는 기본적으로 위험요소에 따라서 다른 기준이 적용될 수 있지만 ‘해야 된다’ 정도를 하시고 내부적으로 위원회나 실제 사업자, 소비자, 정부기관이 협력해 가지고 계속 규정을 정하고 또 실제로 들어오는 서비스를 계속 관찰․모니터링하면서 그 결과를 가지고 다시 기준을 바꾸는, 업데이트하는, 그러니까 온라인으로 계속 업데이트가 될 수 있는 그런 방법의 추진이 필요할 것 같습니다.
감사합니다.
감사합니다.

위원님께서 말씀하신 생각하시는 문제의식과 방향성은 전적으로 동감을 하고요. 당연히 그런 방향으로 가야 되지 않을까라는 생각을 합니다.
다만 저희가 다 아마 공통적인 생각을 하시는 게 실제로 논의하는 과정에서 보면 서로 간에 논의가 잘 안 되는 이유 중의 하나는 생각하는 대상이 되는 알고리즘과 공개하는 방법, 절차에 대한 논의가 안 되기 때문에 그렇거든요. 그래서 가장 중요한 문제는 결국 디테일인 것 같습니다.
그리고 또 한편으로는 나중에 실제로 사업자에게 어떤 일정한 실체적 의무를 부과한다 하더라도 결국은 나중에 검증 가능해야 되거든요. 그러니까 검증 가능한 과정에 있어서 누가 할 거냐와 실제로 검증 가능한 과정에서 나온 데이터들을 일반에 공개하는 게 과연 바람직한지는 한번 고민이 필요한 것 같습니다. 왜냐하면 검증은 필요하지만 잘못하면 남용의 가능성도 있거든요. 그래서 그런 것들을 고려하셔 가지고 입법을 하면 되지 않을까라는 생각을 합니다.
다만 저희가 다 아마 공통적인 생각을 하시는 게 실제로 논의하는 과정에서 보면 서로 간에 논의가 잘 안 되는 이유 중의 하나는 생각하는 대상이 되는 알고리즘과 공개하는 방법, 절차에 대한 논의가 안 되기 때문에 그렇거든요. 그래서 가장 중요한 문제는 결국 디테일인 것 같습니다.
그리고 또 한편으로는 나중에 실제로 사업자에게 어떤 일정한 실체적 의무를 부과한다 하더라도 결국은 나중에 검증 가능해야 되거든요. 그러니까 검증 가능한 과정에 있어서 누가 할 거냐와 실제로 검증 가능한 과정에서 나온 데이터들을 일반에 공개하는 게 과연 바람직한지는 한번 고민이 필요한 것 같습니다. 왜냐하면 검증은 필요하지만 잘못하면 남용의 가능성도 있거든요. 그래서 그런 것들을 고려하셔 가지고 입법을 하면 되지 않을까라는 생각을 합니다.

알고리즘에 대한 공개라고 하는 것들은 분명히 필요하지만 아까 말씀드렸던 것처럼 알고리즘 공개의 목적이 무엇이냐는 겁니다. 이것이 어떤 정치적인 공정성이나 기사의 배열을 확인하기 위한 것인지 아니면 알고리즘이 가지고 있는 한계들을 보여 주어서 어떤 부분을 사람과 독자들이 서로 개입해야 되는지를 밝히는 것이 더 중요하지요. 그러니까 만약에 목적이라고 하는 것이 공정함, 말 그대로 공정함이라고 하는 것은 저희들이 쓰는 용어와 알고리즘의 공정함은 다릅니다. 그런 차이를 서로 인정하는 게 맞을 것 같고.
알고리즘에 대한 공개 수준이라고 하는 것은 제 판단은 과기부와 방통위가 독자적으로 정보를 보유하는 것이 아니라 이용자나 개발자들이 이해할 수 있는 수준의 풀어 쓴 언어로서 밝히는 것이 맞고요. 지금도 아마 알고리즘검증위원회 하고 있는 것으로 알고 있지만 검증이 되게 어렵습니다. 보궐선거와 같이 뉴스가 쏟아지는 공간에서 벌어지는 알고리즘의 산출물과 단지 테스트를 하기 위해서 검증을 하는 알고리즘의 산출물은 다르기 때문입니다.
그래서 그런 점에서 아까도 소개를 해 주셨지만 투명성 보고서의 형태로 알고리즘에 대한 기본적인 이해와 설명을 할 수 있는, 마치 공영방송에 설명책임이 있는 것처럼 이 정도 지배적인 사업자들도 투명성 보고서를 통한 이용자와 또 저널리스트들에 대한 설명책임이 분명히 있다고 보여집니다.
이상입니다.
알고리즘에 대한 공개 수준이라고 하는 것은 제 판단은 과기부와 방통위가 독자적으로 정보를 보유하는 것이 아니라 이용자나 개발자들이 이해할 수 있는 수준의 풀어 쓴 언어로서 밝히는 것이 맞고요. 지금도 아마 알고리즘검증위원회 하고 있는 것으로 알고 있지만 검증이 되게 어렵습니다. 보궐선거와 같이 뉴스가 쏟아지는 공간에서 벌어지는 알고리즘의 산출물과 단지 테스트를 하기 위해서 검증을 하는 알고리즘의 산출물은 다르기 때문입니다.
그래서 그런 점에서 아까도 소개를 해 주셨지만 투명성 보고서의 형태로 알고리즘에 대한 기본적인 이해와 설명을 할 수 있는, 마치 공영방송에 설명책임이 있는 것처럼 이 정도 지배적인 사업자들도 투명성 보고서를 통한 이용자와 또 저널리스트들에 대한 설명책임이 분명히 있다고 보여집니다.
이상입니다.
수고하셨습니다.
다음, 윤영찬 위원님 질의해 주십시오.
다음, 윤영찬 위원님 질의해 주십시오.
알고리즘에 대한 문제에 대한 논쟁들이 벌어질 때 제가 좀 제일 답답하게 생각하는 부분들이 과연 완벽한 검증이라는 게 가능한가에 대한 문제거든요.
그러니까 이 알고리즘을 짜는 문제는 몇 가지 단계를 거쳐서 최종적인 산출물이 나오게 되는데 처음에 휴리스틱스(heuristics) 단계에서 인사이트(insight), 모델링(modeling), 그다음에 인텔리전스(intelligence) 단계로 넘어갑니다. 처음에는 학습용 데이터를 가지고 설계를 하지요. 그런데 하다 보면 피드백 데이터가 계속해서 입력이 됩니다. 그러면 그 입력 데이터의 결과물 하나하나를 과연 리버스 엔지니어링(reverse engineering)으로 따져 들어가서 ‘그 결과가 이렇게 해서 나왔습니다’를 아느냐는 거지요. 저는 설계자들한테, 개발자들한테도 그걸 물어보거든요. ‘너는 아니, 왜 이게 나왔는지?’ 그러면 모른다고 합니다, 왜 이게 나왔는지를.
그러면 그 검증이라는 개념을 우리가 명확하게 정리하고 넘어가야 된다는 거지요. 이 검증이라는 게 하나하나의 결과물들을 모두 다 왜 이 결과가 나왔는지를 우리가 확인하고 그다음에 검증할 수 있느냐, 그게 불가능하다면 검증이라는 개념은 뭐냐라는 부분들을 다시 설정해야 될 필요가 있다라고 생각을 하는 거지요.
그래서 저는 예를 들어서 설계할 때의 설곗값을 얼마 정도를 우리가 반영하고 있다라든지 이런 어느 정도의 포괄적인 가중치에 대한 문제들까지 공개는 가능하다고 생각을 합니다.
그러나 그런 부분들이 하나하나의 결과물에 대한 귀책 또는 그 결과물에 대한 이유, 이것을 설명해 내놓으라고 한다면 그것은 사실상 불가능한 일을 요구하는 거나 마찬가지라는 거지요.
그러니까 인공지능에 의한 알고리즘의 진화는 끊임없이 인공지능에 의해서 자체적으로 머신러닝을 통해서 변하는데 그것을 사람이 이해할 수 있는 언어로 다시 풀어내라고 이야기하는 게 사실상 불가능에 가깝다라고 생각이 드는 겁니다.
그래서 저는 이수영 교수님께 질문드리고 싶은 게 실제로 검증이 가능하다고 우리가 이야기를 할 수 있는 것인지 그리고 만약에 우리가 검증을 해야 된다고 이야기하면 어느 수준까지는 검증이 가능하다고 보시는지 그걸 한번 여쭤보고 싶고요.
그리고 김진욱 변호사님께는 그런 질문을 드리고 싶습니다. 이게 검증을 해야 된다고 이야기를 하시는데, 예전에 포털에서 사람이 편집을 했지 않습니까? 그래서 예전에 국민의힘 전신 자유한국당이나 새누리당, 한나라당 의원님들이 계속해서 사람이 편집해서는 안 된다라고 이야기를 했고 그래서 이 편집 시스템이 넘어갔어요. 그래서 알고리즘에 의해서 편집을 하겠다라고 이야기를 했고요. 그런데 이제 그것도 또 믿을 수가 없고, 예를 들어서 아까 제가 말씀드린 것처럼 검증조차도 불가능한 상황이라면 그러면 오히려 다시 사람이 편집을 하는 게 나을 수도 있는 것 아니냐, 그 사람이 편집을 했을 때는 왜 이 편집을 했다는 걸 우리가 알 수 있고 피드백을 받을 수 있지만 기계는 받을 수가 없다는 거지요. 그래서 그 부분에 대해서는 어떻게 생각하는지 한번 여쭤보고 싶고요.
(이원욱 위원장, 조승래 간사와 사회교대)
포털에 계신 김희정 참고인하고 최재호 참고인께도 여쭤보고 싶은데, 그 내부에도 고민들이 있을 겁니다. 그러니까 이 결괏값을 공개하는 걸 과연 어떤 형식으로 공개할 수 있는지, 그리고 예전에 구글에서 ‘우리는 이러이러한 부분들을 반영합니다’라고 포괄적으로 구글 결과치의 알고리즘에 대한 설명을 한 적이 있어요. 그런데 그 정도를 넘어서는 설명이 과연 가능한 것인지, 그리고 가중치에 대해서 예를 들어서 ‘우리는 가중치를 A부터 Z까지 이러이러한 부분을 몇십 %씩 반영을 하고 있습니다’까지는 가능한 것인지, 그리고 그것에 대해서 실제로 검증을 만약에 한다면 그 검증의 형태가 어떤 방식으로 이루어지는 게 가장 바람직한지에 대한 얘기도 참고인들께서 해 주셨으면 좋겠습니다.
이상입니다.
그러니까 이 알고리즘을 짜는 문제는 몇 가지 단계를 거쳐서 최종적인 산출물이 나오게 되는데 처음에 휴리스틱스(heuristics) 단계에서 인사이트(insight), 모델링(modeling), 그다음에 인텔리전스(intelligence) 단계로 넘어갑니다. 처음에는 학습용 데이터를 가지고 설계를 하지요. 그런데 하다 보면 피드백 데이터가 계속해서 입력이 됩니다. 그러면 그 입력 데이터의 결과물 하나하나를 과연 리버스 엔지니어링(reverse engineering)으로 따져 들어가서 ‘그 결과가 이렇게 해서 나왔습니다’를 아느냐는 거지요. 저는 설계자들한테, 개발자들한테도 그걸 물어보거든요. ‘너는 아니, 왜 이게 나왔는지?’ 그러면 모른다고 합니다, 왜 이게 나왔는지를.
그러면 그 검증이라는 개념을 우리가 명확하게 정리하고 넘어가야 된다는 거지요. 이 검증이라는 게 하나하나의 결과물들을 모두 다 왜 이 결과가 나왔는지를 우리가 확인하고 그다음에 검증할 수 있느냐, 그게 불가능하다면 검증이라는 개념은 뭐냐라는 부분들을 다시 설정해야 될 필요가 있다라고 생각을 하는 거지요.
그래서 저는 예를 들어서 설계할 때의 설곗값을 얼마 정도를 우리가 반영하고 있다라든지 이런 어느 정도의 포괄적인 가중치에 대한 문제들까지 공개는 가능하다고 생각을 합니다.
그러나 그런 부분들이 하나하나의 결과물에 대한 귀책 또는 그 결과물에 대한 이유, 이것을 설명해 내놓으라고 한다면 그것은 사실상 불가능한 일을 요구하는 거나 마찬가지라는 거지요.
그러니까 인공지능에 의한 알고리즘의 진화는 끊임없이 인공지능에 의해서 자체적으로 머신러닝을 통해서 변하는데 그것을 사람이 이해할 수 있는 언어로 다시 풀어내라고 이야기하는 게 사실상 불가능에 가깝다라고 생각이 드는 겁니다.
그래서 저는 이수영 교수님께 질문드리고 싶은 게 실제로 검증이 가능하다고 우리가 이야기를 할 수 있는 것인지 그리고 만약에 우리가 검증을 해야 된다고 이야기하면 어느 수준까지는 검증이 가능하다고 보시는지 그걸 한번 여쭤보고 싶고요.
그리고 김진욱 변호사님께는 그런 질문을 드리고 싶습니다. 이게 검증을 해야 된다고 이야기를 하시는데, 예전에 포털에서 사람이 편집을 했지 않습니까? 그래서 예전에 국민의힘 전신 자유한국당이나 새누리당, 한나라당 의원님들이 계속해서 사람이 편집해서는 안 된다라고 이야기를 했고 그래서 이 편집 시스템이 넘어갔어요. 그래서 알고리즘에 의해서 편집을 하겠다라고 이야기를 했고요. 그런데 이제 그것도 또 믿을 수가 없고, 예를 들어서 아까 제가 말씀드린 것처럼 검증조차도 불가능한 상황이라면 그러면 오히려 다시 사람이 편집을 하는 게 나을 수도 있는 것 아니냐, 그 사람이 편집을 했을 때는 왜 이 편집을 했다는 걸 우리가 알 수 있고 피드백을 받을 수 있지만 기계는 받을 수가 없다는 거지요. 그래서 그 부분에 대해서는 어떻게 생각하는지 한번 여쭤보고 싶고요.
(이원욱 위원장, 조승래 간사와 사회교대)
포털에 계신 김희정 참고인하고 최재호 참고인께도 여쭤보고 싶은데, 그 내부에도 고민들이 있을 겁니다. 그러니까 이 결괏값을 공개하는 걸 과연 어떤 형식으로 공개할 수 있는지, 그리고 예전에 구글에서 ‘우리는 이러이러한 부분들을 반영합니다’라고 포괄적으로 구글 결과치의 알고리즘에 대한 설명을 한 적이 있어요. 그런데 그 정도를 넘어서는 설명이 과연 가능한 것인지, 그리고 가중치에 대해서 예를 들어서 ‘우리는 가중치를 A부터 Z까지 이러이러한 부분을 몇십 %씩 반영을 하고 있습니다’까지는 가능한 것인지, 그리고 그것에 대해서 실제로 검증을 만약에 한다면 그 검증의 형태가 어떤 방식으로 이루어지는 게 가장 바람직한지에 대한 얘기도 참고인들께서 해 주셨으면 좋겠습니다.
이상입니다.
수고하셨습니다.
다음으로 국민의힘 정희용 위원님……
안 끝났어요?
답을……
다음으로 국민의힘 정희용 위원님……
안 끝났어요?
답을……

그러면 먼저 검증에 대해서 말씀드리겠습니다.
‘검증이라는 것이 구체적으로 뭐냐?’부터 사실 질문을 하셔야 되는 상황이고 일반적인 검증이라는 것은 투명성하고는 다릅니다. 투명성은 전체 서비스가 어떤 식으로 데이터를 수집해 가지고 그걸 어떤 방법으로 가공해서 어떤 방법으로 압축시켜 가지고 하느냐만, 그러니까 모든 시스템에 대한 설명이 되는 거고 검증은 그것을 케이스 바이 케이스로 우리가 다 들여다봐야 되는 상황인 거고요.
그래서 이것은 저희는 설명가능성이라는 용어로 지금 쓰고 있고 인공지능 분야에서의 최신 핫 연구과제로 되어 있습니다. 한국에서도 큰 과제로 지금 연구를 해 오고 좋은 성과를 내고 있고요.
그렇지만 역시 똑같이 사람이 추천을 했을 때 그 사람을 어떻게 검증할 거냐라고 생각해 보시면 답은 뻔합니다. 그러니까 제가 어떻게 답을 추천할 때 논리적으로 한참 이렇게 한 다음에 추천드리는 게 아니고 그냥 직관적으로 ‘이겁니다’라고 먼저 말씀드리고 그다음에 ‘어, 설명해 봐’ 그러면 그때야 이제 생각을, 결론하고 대화한 과정을 거꾸로 유추해 가지고 왜 이런 결론을 내 놨느냐 그걸 설명하는 방법이고요. 그게 현재 한 방법은 그렇게 가고 있고.
또 다른 방법은 학습 알고리즘 자체에 이미 설명해야 되는 요소를 끼워 넣어서 동시에 학습을 시키는 방법이 있습니다. 옛날에 많이 쓰던 법칙 기반 인공지능이 사실은, 그건 당연히 그냥 법칙 따라서 가기 때문에 설명이 자동적으로 되는 거예요. ‘결론이 이렇게 나왔으니 이 물건을 꼭 사십시오’라고 하면 왜 사야 되는지 설명이 죽죽 나오게 되어 있는 건데 그것은 성능이 나쁩니다, 일반적으로.
요즘 최근에 딥러닝 성능이 좋은 것은 방대한 데이터로부터 그냥 무조건 배워 가지고 직관에 의해서 답을 덜컥 내 주기 때문에 성능이 잘 나오는 건데 여기다가 설명가능성까지 집어넣으면 저희 현재 연구결과는 ‘정확도는 조금 떨어질 겁니다’라고 말씀드릴 수밖에 없고요. 처음부터 설명가능성을 염두에 두고 하면 정확도는 떨어지지만 그 대신 신뢰도, 그러니까 ‘내가 추천하지만 이 추천에 대해서 신뢰도가 90%입니다, 50%입니다’라고 이야기해 줘야 되거든요, 원래는. 그때 그 신뢰도를 높일 수 있는 것까지는 갈 수 있다고 생각합니다.
‘검증이라는 것이 구체적으로 뭐냐?’부터 사실 질문을 하셔야 되는 상황이고 일반적인 검증이라는 것은 투명성하고는 다릅니다. 투명성은 전체 서비스가 어떤 식으로 데이터를 수집해 가지고 그걸 어떤 방법으로 가공해서 어떤 방법으로 압축시켜 가지고 하느냐만, 그러니까 모든 시스템에 대한 설명이 되는 거고 검증은 그것을 케이스 바이 케이스로 우리가 다 들여다봐야 되는 상황인 거고요.
그래서 이것은 저희는 설명가능성이라는 용어로 지금 쓰고 있고 인공지능 분야에서의 최신 핫 연구과제로 되어 있습니다. 한국에서도 큰 과제로 지금 연구를 해 오고 좋은 성과를 내고 있고요.
그렇지만 역시 똑같이 사람이 추천을 했을 때 그 사람을 어떻게 검증할 거냐라고 생각해 보시면 답은 뻔합니다. 그러니까 제가 어떻게 답을 추천할 때 논리적으로 한참 이렇게 한 다음에 추천드리는 게 아니고 그냥 직관적으로 ‘이겁니다’라고 먼저 말씀드리고 그다음에 ‘어, 설명해 봐’ 그러면 그때야 이제 생각을, 결론하고 대화한 과정을 거꾸로 유추해 가지고 왜 이런 결론을 내 놨느냐 그걸 설명하는 방법이고요. 그게 현재 한 방법은 그렇게 가고 있고.
또 다른 방법은 학습 알고리즘 자체에 이미 설명해야 되는 요소를 끼워 넣어서 동시에 학습을 시키는 방법이 있습니다. 옛날에 많이 쓰던 법칙 기반 인공지능이 사실은, 그건 당연히 그냥 법칙 따라서 가기 때문에 설명이 자동적으로 되는 거예요. ‘결론이 이렇게 나왔으니 이 물건을 꼭 사십시오’라고 하면 왜 사야 되는지 설명이 죽죽 나오게 되어 있는 건데 그것은 성능이 나쁩니다, 일반적으로.
요즘 최근에 딥러닝 성능이 좋은 것은 방대한 데이터로부터 그냥 무조건 배워 가지고 직관에 의해서 답을 덜컥 내 주기 때문에 성능이 잘 나오는 건데 여기다가 설명가능성까지 집어넣으면 저희 현재 연구결과는 ‘정확도는 조금 떨어질 겁니다’라고 말씀드릴 수밖에 없고요. 처음부터 설명가능성을 염두에 두고 하면 정확도는 떨어지지만 그 대신 신뢰도, 그러니까 ‘내가 추천하지만 이 추천에 대해서 신뢰도가 90%입니다, 50%입니다’라고 이야기해 줘야 되거든요, 원래는. 그때 그 신뢰도를 높일 수 있는 것까지는 갈 수 있다고 생각합니다.

김진욱 변호사입니다.
윤영찬 위원님께서 말씀하신 것처럼 여당이든 야당이든 포털이 제공하는 콘텐츠의 중립성 내지는 객관성 시비에 대해서 문제의식을 공통적으로 가지고 계셨다고 이해가 되고요. 그렇기 때문에 그간 과거에 포털에서 임의적으로 편집하던 것이 과연 믿을 수 있는 것이냐 우려가 제기되었고 그게 믿기 어렵다면 그러면 기계를 통해서라도 한번 바로잡아 보자라는 취지에서 여야 정치권에서 알고리즘을 통한 콘텐츠 노출․편집 등을 제안하셨던 걸로 알게 됐고 포털 쪽에서 그런 것들을 일부 수용해서 알고리즘에 기반한 콘텐츠 노출․배열 등은 했던 것으로 알고 있습니다.
다만 그것 역시도 여전히 깜깜이고 그다음에 알고리즘을 통한 콘텐츠 노출 역시도 공정성 시비에 휘말려 있는 상황이기 때문에 지금 단계에서는 대한민국에서 가장 영향력 있는 사업자들이 제공하는 콘텐츠를 과연 믿을 수 있는지에 대해서 한번 검증을 해 보자는 그런 논의로 이해가 되고 있고요.
그렇기 때문에 현재 여야 합의로 알고리즘검토위원회 내지는 검증위원회를 구성해서 운영을 하려고 시도하고 있는 것으로 알고 있습니다. 1년 내지는 2년 정도의 시범운영 내지는 실증 테스트들을 한번 받아 보신 다음에 그것을 여야 의원님들께서 발의하신 법안을 논의하는 과정에 반영하면 어떨까 생각이 듭니다.
윤영찬 위원님께서 말씀하신 것처럼 여당이든 야당이든 포털이 제공하는 콘텐츠의 중립성 내지는 객관성 시비에 대해서 문제의식을 공통적으로 가지고 계셨다고 이해가 되고요. 그렇기 때문에 그간 과거에 포털에서 임의적으로 편집하던 것이 과연 믿을 수 있는 것이냐 우려가 제기되었고 그게 믿기 어렵다면 그러면 기계를 통해서라도 한번 바로잡아 보자라는 취지에서 여야 정치권에서 알고리즘을 통한 콘텐츠 노출․편집 등을 제안하셨던 걸로 알게 됐고 포털 쪽에서 그런 것들을 일부 수용해서 알고리즘에 기반한 콘텐츠 노출․배열 등은 했던 것으로 알고 있습니다.
다만 그것 역시도 여전히 깜깜이고 그다음에 알고리즘을 통한 콘텐츠 노출 역시도 공정성 시비에 휘말려 있는 상황이기 때문에 지금 단계에서는 대한민국에서 가장 영향력 있는 사업자들이 제공하는 콘텐츠를 과연 믿을 수 있는지에 대해서 한번 검증을 해 보자는 그런 논의로 이해가 되고 있고요.
그렇기 때문에 현재 여야 합의로 알고리즘검토위원회 내지는 검증위원회를 구성해서 운영을 하려고 시도하고 있는 것으로 알고 있습니다. 1년 내지는 2년 정도의 시범운영 내지는 실증 테스트들을 한번 받아 보신 다음에 그것을 여야 의원님들께서 발의하신 법안을 논의하는 과정에 반영하면 어떨까 생각이 듭니다.
이제 다 답변 끝나신 겁니까?
두 분, 참고인들 두 분……

저희도 지금 여러 위원님들과……
마이크에 대고 크게 좀 말씀해 주십시오.

예.
저희도 이런 부분에 대해서 지금 충분히 공감을 하고 있고 말씀 주신 대로 내부에서 여러 가지 고민들을 하고 있는 상황입니다. 저희는 이미 업계 최초로 여러 가지 논문이나 세미나를 통해서 공개를 하고 있는데 만약에 이런 논의들이 오늘 사회적 합의를 이루어 주신다면 저희는 적극적으로 검토할 생각이 있고요. 또 앞으로도 이런 문제에 대해서는 저희가 열린 마음으로 수용을 하려고 계속 내부적으로 많은 고민들을 하고 있는 상황입니다.
또 사실 저희가 18년도에 이미 카카오 알고리즘 윤리헌장을 전체적으로 공표를 한 상황이고요, 해당 내용에 대해서는 이미 전 직원이 알고리즘 교육을 받고 있고 투명성에 가까워지도록 그리고 신뢰할 수 있도록 직원들끼리도 계속 교육을 받고 있는 상황입니다. 그래서 오늘 이후로 여러 가지 좋은 의견들을 주시면 저희는 적극 검토해 보도록 하겠습니다.
저희도 이런 부분에 대해서 지금 충분히 공감을 하고 있고 말씀 주신 대로 내부에서 여러 가지 고민들을 하고 있는 상황입니다. 저희는 이미 업계 최초로 여러 가지 논문이나 세미나를 통해서 공개를 하고 있는데 만약에 이런 논의들이 오늘 사회적 합의를 이루어 주신다면 저희는 적극적으로 검토할 생각이 있고요. 또 앞으로도 이런 문제에 대해서는 저희가 열린 마음으로 수용을 하려고 계속 내부적으로 많은 고민들을 하고 있는 상황입니다.
또 사실 저희가 18년도에 이미 카카오 알고리즘 윤리헌장을 전체적으로 공표를 한 상황이고요, 해당 내용에 대해서는 이미 전 직원이 알고리즘 교육을 받고 있고 투명성에 가까워지도록 그리고 신뢰할 수 있도록 직원들끼리도 계속 교육을 받고 있는 상황입니다. 그래서 오늘 이후로 여러 가지 좋은 의견들을 주시면 저희는 적극 검토해 보도록 하겠습니다.
예, 다음 참고인.

존경하는 위원님들 이 자리에 초대해 주셔서 감사드립니다. 그리고 발언할 기회를 주셔서 감사드립니다.
우선 네이버가 알고리즘을 기반으로 뉴스를 편집한 배경에 대해서는 다른 분들께서 많이 설명을 해 주셨기 때문에 그 배경에 대해서 잘 아실 거라고 믿습니다.
현재 지금 네이버가 하고 있는 방식은 크게 두 가지입니다. 언론사 편집판을 통해서 언론사가 직접 편집하는 가치를 제공하고 있고요. 현재 지금 AI에 의해서 추천되는 부분은 ‘MY뉴스’라고 해서 약 30% 정도의 트래픽을 차지하고 있습니다.
앞서 말씀 주신 것처럼 저희도 초창기에 알고리즘 도입하는 과정부터 사용자의 선택권이라는 것이 굉장히 중요하다, 사용자가 원하는 언론사를 직접 구독할 수 있는 기능이 있어야 한다라는 것에 모두가 공감을 하였고요, 그로 인해서 언론사 판을 우선적으로 배치하는 것들을 단행했습니다.
그 결과 현재 2000만 명이 넘는 사용자분들이 약 80%가량의 트래픽을 구독을 한 상태에서 사용을 하고 계시고요. 현재 30% 정도만 보조적인 수단으로 ‘MY뉴스’를 사용하고 있는데 이 보조적인 수단으로 사용되는 ‘MY뉴스’에서 발생하는 이런 공정성이나 투명성에 관련해서 저희가 알고리즘을 연구개발하는 입장에서 오늘 여러 가지 좋은 말씀들을 듣고 성실하게 답변을 드리도록 하겠습니다.
우선 지금 현재 말씀 주신 검증 관련해서는 사실 네이버가 최초로 2018년에 저희가 열한 분의 컴퓨터공학 그리고 언론학 분야의 교수님들을 모시고 검증위를 실행한 적이 있습니다. 그 당시에 오늘 말씀 주셨던 모든 여러 가지 문제들 그리고 설계 시 고려방안들 그리고 사람의 개입 여부 이런 것들을 가장 주안점을 두고 검토를 하였고요. 그 결과 현재 사용하고 있는 방식은 저희가 그때 검토위원분들께서 제안해 주신 방식들을 포함하여서 가장 합리적인 알고리즘을 사용하고 있습니다.
그리고 그 당시에는 소스코드 레벨까지 검증을 할 수 있었는데요. 당시에는 시간…… 사실 소스코드라는 것은 그 알고리즘을 구현하는 단계입니다. 그래서 구현하는 방법도 굉장히 여러 가지가 있고 효율성을 강조하는, 또 사용하는 서버가 수백 대, 수천 대에 이르기 때문에 방식이 다를 수 있는데요. 그 부분은 시간 관계상 보지 못했을 뿐이고 실제 그 당시에도 소스코드 레벨까지도 저희가 설명을 다 드려서 상호 신뢰 가운데서 검토를 마친 상황입니다. 그런 것들이 지금 말씀 나누시는 투명성 보고서라든가 아니면 뭔가 외부 위원들을 통한 검증들을 다 포함하고 있다고 보고요.
아까 앞서 위원님께서 구글의 사례에 대해서 말씀 주셨는데요. 구글은 현재 특허를 통해서 수년 전에 그런 여러 가지 요소들을 공개한 적이 있습니다. 저희도 사실 공개에 대해서는 여러 가지 논문이라든가 전문가그룹을 통해서 수식이나 주요 피처(feature)들을 공개하고 있고요, 관훈저널 등을 통해서도 공개를 한 적이 있고요. 특허 같은 경우에는 지적재산권을 보호받는 방식이기 때문에 저희가 또 여러 가지 방식으로 특허도 낼 수도 있고요.
하지만 소스코드를 일종의 자산이라고 저는 생각합니다. 그래서 그런 것들은 검토위원분들께만 공개를 하고 일반 대중들께 공개할 때는 여러 가지 부작용이나 실효성이 의심되기 때문에 약간 우려되는 부분들이 많이 있습니다.
그리고 여러 진술인들께서 말씀 주신 것처럼 일단은 자율에 맡겨서 투명성을 제고하는 방향 그리고 외부 위원분들께 저희가 더 적극적으로 찾아뵙고 저희가 지금 사용하는 방식들이 얼마나 합리적인 방식들인가 이런 것들에 대해서 검증할 수 있는 방안들을 같이 고민해 보면 좋을 것 같습니다.
우선 네이버가 알고리즘을 기반으로 뉴스를 편집한 배경에 대해서는 다른 분들께서 많이 설명을 해 주셨기 때문에 그 배경에 대해서 잘 아실 거라고 믿습니다.
현재 지금 네이버가 하고 있는 방식은 크게 두 가지입니다. 언론사 편집판을 통해서 언론사가 직접 편집하는 가치를 제공하고 있고요. 현재 지금 AI에 의해서 추천되는 부분은 ‘MY뉴스’라고 해서 약 30% 정도의 트래픽을 차지하고 있습니다.
앞서 말씀 주신 것처럼 저희도 초창기에 알고리즘 도입하는 과정부터 사용자의 선택권이라는 것이 굉장히 중요하다, 사용자가 원하는 언론사를 직접 구독할 수 있는 기능이 있어야 한다라는 것에 모두가 공감을 하였고요, 그로 인해서 언론사 판을 우선적으로 배치하는 것들을 단행했습니다.
그 결과 현재 2000만 명이 넘는 사용자분들이 약 80%가량의 트래픽을 구독을 한 상태에서 사용을 하고 계시고요. 현재 30% 정도만 보조적인 수단으로 ‘MY뉴스’를 사용하고 있는데 이 보조적인 수단으로 사용되는 ‘MY뉴스’에서 발생하는 이런 공정성이나 투명성에 관련해서 저희가 알고리즘을 연구개발하는 입장에서 오늘 여러 가지 좋은 말씀들을 듣고 성실하게 답변을 드리도록 하겠습니다.
우선 지금 현재 말씀 주신 검증 관련해서는 사실 네이버가 최초로 2018년에 저희가 열한 분의 컴퓨터공학 그리고 언론학 분야의 교수님들을 모시고 검증위를 실행한 적이 있습니다. 그 당시에 오늘 말씀 주셨던 모든 여러 가지 문제들 그리고 설계 시 고려방안들 그리고 사람의 개입 여부 이런 것들을 가장 주안점을 두고 검토를 하였고요. 그 결과 현재 사용하고 있는 방식은 저희가 그때 검토위원분들께서 제안해 주신 방식들을 포함하여서 가장 합리적인 알고리즘을 사용하고 있습니다.
그리고 그 당시에는 소스코드 레벨까지 검증을 할 수 있었는데요. 당시에는 시간…… 사실 소스코드라는 것은 그 알고리즘을 구현하는 단계입니다. 그래서 구현하는 방법도 굉장히 여러 가지가 있고 효율성을 강조하는, 또 사용하는 서버가 수백 대, 수천 대에 이르기 때문에 방식이 다를 수 있는데요. 그 부분은 시간 관계상 보지 못했을 뿐이고 실제 그 당시에도 소스코드 레벨까지도 저희가 설명을 다 드려서 상호 신뢰 가운데서 검토를 마친 상황입니다. 그런 것들이 지금 말씀 나누시는 투명성 보고서라든가 아니면 뭔가 외부 위원들을 통한 검증들을 다 포함하고 있다고 보고요.
아까 앞서 위원님께서 구글의 사례에 대해서 말씀 주셨는데요. 구글은 현재 특허를 통해서 수년 전에 그런 여러 가지 요소들을 공개한 적이 있습니다. 저희도 사실 공개에 대해서는 여러 가지 논문이라든가 전문가그룹을 통해서 수식이나 주요 피처(feature)들을 공개하고 있고요, 관훈저널 등을 통해서도 공개를 한 적이 있고요. 특허 같은 경우에는 지적재산권을 보호받는 방식이기 때문에 저희가 또 여러 가지 방식으로 특허도 낼 수도 있고요.
하지만 소스코드를 일종의 자산이라고 저는 생각합니다. 그래서 그런 것들은 검토위원분들께만 공개를 하고 일반 대중들께 공개할 때는 여러 가지 부작용이나 실효성이 의심되기 때문에 약간 우려되는 부분들이 많이 있습니다.
그리고 여러 진술인들께서 말씀 주신 것처럼 일단은 자율에 맡겨서 투명성을 제고하는 방향 그리고 외부 위원분들께 저희가 더 적극적으로 찾아뵙고 저희가 지금 사용하는 방식들이 얼마나 합리적인 방식들인가 이런 것들에 대해서 검증할 수 있는 방안들을 같이 고민해 보면 좋을 것 같습니다.
감사합니다.
이제 윤영찬 위원 질의는 끝났는데요, 그런데 이렇게 질의를 하시면 질의가 시간이 너무 늘어져서 안 되니까 5분 이내에 가능하면 진술인과 참고인들하고 일문일답식으로 좀 진행을 해 주시고 하셔야 시간을 효율적으로 사용할 수 있지, 이렇게 되면 좀 곤란할 것 같습니다. 오전 중에 마치기가 어려울 것 같으니까 그 점 감안해 주셔서 질의와 답변을 해 주시기 바라겠습니다.
다음은 국민의힘 정희용 위원님 질의하시겠습니다.
이제 윤영찬 위원 질의는 끝났는데요, 그런데 이렇게 질의를 하시면 질의가 시간이 너무 늘어져서 안 되니까 5분 이내에 가능하면 진술인과 참고인들하고 일문일답식으로 좀 진행을 해 주시고 하셔야 시간을 효율적으로 사용할 수 있지, 이렇게 되면 좀 곤란할 것 같습니다. 오전 중에 마치기가 어려울 것 같으니까 그 점 감안해 주셔서 질의와 답변을 해 주시기 바라겠습니다.
다음은 국민의힘 정희용 위원님 질의하시겠습니다.
경북 고령․성주․칠곡 출신 정희용입니다.
네 분 말씀과 자료 잘 봤습니다.
저는 두 분―카카오 김희정 실장님과 네이버 최재호 이사님―참고인분들께 질문하도록 하겠습니다.
먼저 카카오, 일문일답으로 하라 했으니까 그렇게 하겠습니다.
카카오 김희정 실장님께 질문하겠습니다.
사람에 의해서 알고리즘이 설계되고 운영되어서 작동 결과가 달라진다, 이렇게 의견들이 많이 있지 않습니까?
이 부분에 대해서 어떻게 생각하십니까, 실장님?
인정하십니까? 사람에 의해서 달라질 수 있다 이렇게 생각을 하시는지요?
네 분 말씀과 자료 잘 봤습니다.
저는 두 분―카카오 김희정 실장님과 네이버 최재호 이사님―참고인분들께 질문하도록 하겠습니다.
먼저 카카오, 일문일답으로 하라 했으니까 그렇게 하겠습니다.
카카오 김희정 실장님께 질문하겠습니다.
사람에 의해서 알고리즘이 설계되고 운영되어서 작동 결과가 달라진다, 이렇게 의견들이 많이 있지 않습니까?
이 부분에 대해서 어떻게 생각하십니까, 실장님?
인정하십니까? 사람에 의해서 달라질 수 있다 이렇게 생각을 하시는지요?

저희는 현재 완전 자동화가 되어 있는 상태가 오래되었고요, 사람이 개입할 수 있는 구조가 아닙니다. 그래서 사람이 개입되고 있지는 않습니다.
그렇습니까?
자료화면 잠깐 보시겠습니다.
(영상자료를 보며)
작년 10월 7일 국정감사 때 제가 질문한 건데요, 캐스퍼 아시지요? 잘 아실 거지 않습니까, 실장님은? 잘 아시지요, 캐스퍼?
자료화면 잠깐 보시겠습니다.
(영상자료를 보며)
작년 10월 7일 국정감사 때 제가 질문한 건데요, 캐스퍼 아시지요? 잘 아실 거지 않습니까, 실장님은? 잘 아시지요, 캐스퍼?

예, 질문 주시면 답변 드리도록 하겠습니다.
캐스퍼에 ‘암호화폐가 궁금할 때는 어떻게 하냐’ 하니까 ‘업비트에서 비트코인 시세를 알려 달라’ 이랬습니다. 그래서 이것 비판을 했어요, 업비트가 카카오 출신 임원 지낸 분이 대표가 되어 있다 이래서. 그랬더니만, 10월 22일 국정감사 마지막에 다시 한번 똑같은 질문을 했습니다. 그러니까 ‘지원하지 않는 기능입니다’라고 대답을 했어요.
사람이 개입하지 않는다면 똑같은 질문에 똑같은 답을 해야 되는 겁니다. 아니면, 물론 보름 사이에 AI가 진화를 해서 다른 답변을 해야 되는 거지, ‘여러 경우의 수가 있다’라는 답변을 해야 되는 거지 이것은 ‘지원하지 않는 기능입니다’라는 것은 사람에 의해서 만져졌다는 이야기지요.
첫 번째 문제 제기가 뭔가 문제가 있기 때문에 사람에 의해서 다시 수정을 했다는 거지 않습니까? 그러니까 지금 참고인 말씀은 틀린 말씀인 거지요. 분명히 그 회사에서도 사람에 의해서 설계가 되고 운영이 되고 그 결과가 달라지게 반영이 된다는 거지요.
사람이 개입하지 않는다면 똑같은 질문에 똑같은 답을 해야 되는 겁니다. 아니면, 물론 보름 사이에 AI가 진화를 해서 다른 답변을 해야 되는 거지, ‘여러 경우의 수가 있다’라는 답변을 해야 되는 거지 이것은 ‘지원하지 않는 기능입니다’라는 것은 사람에 의해서 만져졌다는 이야기지요.
첫 번째 문제 제기가 뭔가 문제가 있기 때문에 사람에 의해서 다시 수정을 했다는 거지 않습니까? 그러니까 지금 참고인 말씀은 틀린 말씀인 거지요. 분명히 그 회사에서도 사람에 의해서 설계가 되고 운영이 되고 그 결과가 달라지게 반영이 된다는 거지요.

저희가 잘 아시겠지만 서비스……
제가 따져 물으려고 하는 게 아니라 솔직하게…… 그래야지 공청회가 활발히 진행될 거지 않습니까? 잘했다, 잘못했다를 제가 따지는 것은 아닙니다. 그러니까 사람에 의해서 달라질 수 있다라는 걸 인정하느냐라는 질문을 드린 거지요. 다른 진술인들은 다 그렇게 말씀하셨어요.

현재 특정인이나 사람이 개입할 수 없는 구조로 짜여져 있기 때문에……
구조는 그렇지만 실제로는 저렇게 현실이 나오는 거지 않습니까?
그러니까 알고리즘이 이렇게 투명해야 되고 편향되지 않아야 되고 이 방안을 도출하는 공청회니까 긴장하지 마시고 그냥 편하게 말씀하시면 됩니다. 그냥 무조건 방어적으로 하실 필요는 없는 거예요.
그러니까 알고리즘이 이렇게 투명해야 되고 편향되지 않아야 되고 이 방안을 도출하는 공청회니까 긴장하지 마시고 그냥 편하게 말씀하시면 됩니다. 그냥 무조건 방어적으로 하실 필요는 없는 거예요.

예.
그러면 이제 최재호 네이버 이사님께 질문드리겠습니다.
지금 네이버 뉴스 배열 관련해서 정치권뿐만 아니라 전 국민들이 편향성 문제를 계속 이야기하고 있습니다. 때로는 야당이 또 이제는 여당이.
그런데 이 제기되는 문제 해결을 위해서 조금 전에 존경하는 윤영찬 위원님 질문에 답변을 하셨는데, 짧게 문제 해결을 위해서 기술적 노력을 어떤 기술적 노력을 하셨는지 이 부분을 좀 설명해 줄 수 있는가요? 국민들이 이해할 수 있도록 해 주셔야 돼요. 너무 기술적으로 깊이 들어가시면 안 됩니다.
지금 네이버 뉴스 배열 관련해서 정치권뿐만 아니라 전 국민들이 편향성 문제를 계속 이야기하고 있습니다. 때로는 야당이 또 이제는 여당이.
그런데 이 제기되는 문제 해결을 위해서 조금 전에 존경하는 윤영찬 위원님 질문에 답변을 하셨는데, 짧게 문제 해결을 위해서 기술적 노력을 어떤 기술적 노력을 하셨는지 이 부분을 좀 설명해 줄 수 있는가요? 국민들이 이해할 수 있도록 해 주셔야 돼요. 너무 기술적으로 깊이 들어가시면 안 됩니다.

우선 현재 문제가 되고 있는 부분들이 한 언론사의 보도를 통해서 나온 부분인데요, 사실 그 부분에 있어서는 굉장히 통계적인 오류들이 많이 존재하고 있습니다. 그러니까 실제로 방송에서 나온 부분들은…… 대체로 저희가 로그인 비율이 80%가 되는데요. 그래서 로그인을 하지 않은 상태에서 기계적으로 수집을 해 가고 매체의 성향 분류 자체도 정확하지 않은 상태에서 그것들을 성급한 일반화를 한 부분들이 있었고요.
그래서 그 부분에 대해서 저희가 개인화된 부분들에 대해서도 대표성이 없는 비로그인 아이디를 만들어서 진행을 하셔서 사실 어떻게 보면 저희가 2000만이 이용하는 뉴스 서비스인데 아이디 네 개였으니까 사실은 거의 수백만 분의 1의 확률로 나올 결과들을 가지고 일반화한 부분들에 대해서 우려들을 많이 하고 계신 것으로 알고 있습니다. 그래서 그 부분에 대해서는 저희가 내부적으로 여러 가지 정정보도라든가 이런 것들 소송을 통해서 저희가 준비를 하고 있고요.
다만 아까 말씀드린 언론사에서 소비되는 비율이 70%이기 때문에 대부분 사실은 사용자분들이 직접 선택한 언론사의 기사를 우선적으로 보시게 되어 있습니다. 그리고 그것만 보고 뉴스를 그만 보시는 분들도 많고요. 아마 추가……
그래서 그 부분에 대해서 저희가 개인화된 부분들에 대해서도 대표성이 없는 비로그인 아이디를 만들어서 진행을 하셔서 사실 어떻게 보면 저희가 2000만이 이용하는 뉴스 서비스인데 아이디 네 개였으니까 사실은 거의 수백만 분의 1의 확률로 나올 결과들을 가지고 일반화한 부분들에 대해서 우려들을 많이 하고 계신 것으로 알고 있습니다. 그래서 그 부분에 대해서는 저희가 내부적으로 여러 가지 정정보도라든가 이런 것들 소송을 통해서 저희가 준비를 하고 있고요.
다만 아까 말씀드린 언론사에서 소비되는 비율이 70%이기 때문에 대부분 사실은 사용자분들이 직접 선택한 언론사의 기사를 우선적으로 보시게 되어 있습니다. 그리고 그것만 보고 뉴스를 그만 보시는 분들도 많고요. 아마 추가……
알겠습니다. 제가 추가로 여쭤보고……
알고리즘을 외부에 공개한 적이 없으시잖아요, 현재까지?
알고리즘을 외부에 공개한 적이 없으시잖아요, 현재까지?

외부인분들께 검토위를 통해서 공개한 적이 있습니다.
검토위를 통해서 공개한 적이 있으시고.
제가 시간이 없어서 마지막으로 두 분께, 최재호 이사님과 김희정 실장님께 공히 질문을 드리겠습니다.
이게 지금 알고리즘의 투명성 확보도 중요하고 가치중립성 확보도 중요하고 그러면서 알고리즘 기술 발전의 저해는 또 안 되어야 되고 이렇습니다, 이 확보를 해야 되면서. 그래서 기술 발전에는 저해되지 않으면서……
(발언시간 초과로 마이크 중단)
(마이크 중단 이후 계속 발언한 부분)
국민들로부터 투명하다, 공정하다는 평가를 받을 수 있는, 각 사에서 기술적인 방안을 가지고 있는 것에 대해서 조금 짧게 설명해 주시기를 부탁드리겠습니다.
제가 시간이 없어서 마지막으로 두 분께, 최재호 이사님과 김희정 실장님께 공히 질문을 드리겠습니다.
이게 지금 알고리즘의 투명성 확보도 중요하고 가치중립성 확보도 중요하고 그러면서 알고리즘 기술 발전의 저해는 또 안 되어야 되고 이렇습니다, 이 확보를 해야 되면서. 그래서 기술 발전에는 저해되지 않으면서……
(발언시간 초과로 마이크 중단)
국민들로부터 투명하다, 공정하다는 평가를 받을 수 있는, 각 사에서 기술적인 방안을 가지고 있는 것에 대해서 조금 짧게 설명해 주시기를 부탁드리겠습니다.

제가 먼저 말씀드리면, 기술적인 부분들은 좀 전에 이수영 교수님께서 말씀 주신 것처럼 설명 가능한 AI에 대한 연구들이 지금 활발하게 진행이 되고 있습니다. 하지만 아직까지는 실험적인 단계이고요.
저희도 내부적으로 말씀하신 뉴럴(neural) 네트워크 사용하고 있는데 뉴럴 네트워크가 가지고 있는 변수 자체가 굉장히 많습니다. 그리고 블랙박스처럼 되어 있고 그것이 사람의 직관과 비슷한 성능을 내고 있기 때문에 그 부분에 대해서 이 기사가 왜 이렇게 추천됐는지에 대해서 리버스 엔지니어링 자체가 사실 불가능한 게 맞고요.
그래서 그런 부분들은 성능을 좀 감수하고라도 사람들에게 이게 추천된 이유가 예를 들어서 이 기사를 본 다른 사람들 때문에 추천됐다든가 아니면 지금 이 기사가 어떤 부분에서 구독하고 있는 언론사에서 굉장히 많이 소비가 되고 있는 기사라든가 이런 부분들에 대해서 설명 가능한 그러한 요소들을 넣을 수 있도록 준비를 해 나가고 있습니다. 좋은 의견 감사드립니다.
저희도 내부적으로 말씀하신 뉴럴(neural) 네트워크 사용하고 있는데 뉴럴 네트워크가 가지고 있는 변수 자체가 굉장히 많습니다. 그리고 블랙박스처럼 되어 있고 그것이 사람의 직관과 비슷한 성능을 내고 있기 때문에 그 부분에 대해서 이 기사가 왜 이렇게 추천됐는지에 대해서 리버스 엔지니어링 자체가 사실 불가능한 게 맞고요.
그래서 그런 부분들은 성능을 좀 감수하고라도 사람들에게 이게 추천된 이유가 예를 들어서 이 기사를 본 다른 사람들 때문에 추천됐다든가 아니면 지금 이 기사가 어떤 부분에서 구독하고 있는 언론사에서 굉장히 많이 소비가 되고 있는 기사라든가 이런 부분들에 대해서 설명 가능한 그러한 요소들을 넣을 수 있도록 준비를 해 나가고 있습니다. 좋은 의견 감사드립니다.
말씀 잘 들었습니다.

저희도 내부적으로는 설명 가능할 수 있도록 개발자들이 계속 고민을 하고 있고요. 또……
마이크 조금 가까이……

다시 말씀드리겠습니다.
저희도 내부적으로는 개발자들이 설명 가능하고 투명할 수 있도록 항상 고민을 하고 있고요. 또 미디어자문위를 통해서 학계의 저명하신 교수님들과 함께 주기적으로 저희가 만나서 검토를 하고 검증을 하고 있는 상황입니다. 그래서 오늘 이후로 계속 좋은 의견 주시면 저희가 계속 적극 반영하도록 하겠습니다.
저희도 내부적으로는 개발자들이 설명 가능하고 투명할 수 있도록 항상 고민을 하고 있고요. 또 미디어자문위를 통해서 학계의 저명하신 교수님들과 함께 주기적으로 저희가 만나서 검토를 하고 검증을 하고 있는 상황입니다. 그래서 오늘 이후로 계속 좋은 의견 주시면 저희가 계속 적극 반영하도록 하겠습니다.
말씀 잘 들었습니다.
정희용 위원님 수고하셨습니다.
다음으로 더불어민주당 이용빈 위원님 질의하시겠습니다.
다음으로 더불어민주당 이용빈 위원님 질의하시겠습니다.
광주 광산갑 출신 이용빈입니다.
김동원 실장님께 여쭤보겠습니다.
포털 알고리즘이 탄생한 이유가 무엇이라고 생각하십니까?
김동원 실장님께 여쭤보겠습니다.
포털 알고리즘이 탄생한 이유가 무엇이라고 생각하십니까?

사람이 편집을 하기에 너무 많은 분량의 뉴스가 쏟아져 오고 있고 그리고 알고리즘이라고 하는 것은 사람의 가치 판단이나 또는 주관 그런 것들의 개입보다는 아까도 한 분이 말씀하셨지만 기술을 통해서 중립성을 확보하려고 하는 그러한 노력의 산물이었다고 봅니다.
지금 촛불시민들의 주요한 개혁 과제 중 하나가 언론개혁을 이야기하고 있는데요. 언론개혁의 대상이 되는 것이 주로 가짜뉴스 또는 언론의 편향성, 정치적 당파성 이런 것들이 주로 문제가 되고 있지 않습니까?

예.
그런데 예컨대 알고리즘 자체가 언론 소비자들의 선호도에 맞춰서 알고리즘이 작동하다 보면 이러한 가짜뉴스나 편향성을 강화하는 방향으로 알고리즘이 작동할 개연성이 굉장히 크다고 생각되는데 어떻게 생각하십니까?

그런 가짜뉴스 또는 허위․조작정보의 증폭이라는 부분들은 세 가지 요인이 결합됐다고 봅니다. 첫 번째는 알고리즘에서 그것들을 충분히 판단하지 못하는 부분들이 있을 것이고. 아까도 말씀드렸지만 특정한 시간대에 너무 많은 뉴스가 쏟아질 경우에는 그런 것들을 제대로 묶기가 어렵습니다, 클러스터링(clustering)을 하기가. 그런 부분들이 하나 있고.
또 하나 중요한 것은 제가 발표문에 써 놨지만 각 언론사마다 디지털 역량이 너무 다릅니다. 아이24라든가 24시간 대응팀을 운영하는 중앙일보와 조선일보가 네이버에 뉴스를 송고하는 그러한 양이나 데이터들과 한겨레신문이 하는 것은 엄청나게 다르지요.
그리고 또 하나는 이용자들의 관습화된 이용 행태입니다. 그러니까 사실은 저희가 정확히 말씀을 드리면 가짜뉴스가 왜 확산되느냐, 가짜뉴스의 진원지가 어디냐, 팩트체크를 왜 하지 않았느냐라고 하는 것은 일차적으로 언론사에 책임이 있겠으나 그러면 그런 것들은 또 가만히 보게 되면 아이24나 대부분의 큰 언론사의 24시간 뉴스대응팀들은 대부분 연합뉴스라든가 위원님들이 토론회랑 공청회에서 하시는 발언들 그리고 소셜미디어 같은 것들 바로바로 인용을 해서 기사에 올려 버립니다.
그렇기 때문에 단순히 그냥 알고리즘만 딱 한정을 해서 하는 것보다 알고리즘을 둘러싼 언론사들의 격차, 이용자들의 달라지고 있는 행태 같은 것들을 동시에 고려해야 지금 궁금해하시는 이러한 아웃풋, 최종적으로 어떤 결과가 나왔는가를 판단하는 데 더 효율적이라고 봅니다.
(조승래 간사, 이원욱 위원장과 사회교대)
또 하나 중요한 것은 제가 발표문에 써 놨지만 각 언론사마다 디지털 역량이 너무 다릅니다. 아이24라든가 24시간 대응팀을 운영하는 중앙일보와 조선일보가 네이버에 뉴스를 송고하는 그러한 양이나 데이터들과 한겨레신문이 하는 것은 엄청나게 다르지요.
그리고 또 하나는 이용자들의 관습화된 이용 행태입니다. 그러니까 사실은 저희가 정확히 말씀을 드리면 가짜뉴스가 왜 확산되느냐, 가짜뉴스의 진원지가 어디냐, 팩트체크를 왜 하지 않았느냐라고 하는 것은 일차적으로 언론사에 책임이 있겠으나 그러면 그런 것들은 또 가만히 보게 되면 아이24나 대부분의 큰 언론사의 24시간 뉴스대응팀들은 대부분 연합뉴스라든가 위원님들이 토론회랑 공청회에서 하시는 발언들 그리고 소셜미디어 같은 것들 바로바로 인용을 해서 기사에 올려 버립니다.
그렇기 때문에 단순히 그냥 알고리즘만 딱 한정을 해서 하는 것보다 알고리즘을 둘러싼 언론사들의 격차, 이용자들의 달라지고 있는 행태 같은 것들을 동시에 고려해야 지금 궁금해하시는 이러한 아웃풋, 최종적으로 어떤 결과가 나왔는가를 판단하는 데 더 효율적이라고 봅니다.
(조승래 간사, 이원욱 위원장과 사회교대)
좋습니다. 이게 인공지능이라고 하는 관점에서 4차 산업혁명이 촉발되는 과정에서 언론의 어떤 시대 전환의 한 방향성이라는 생각은 드는데 이것이 실제로 민주주의의 가장 중요한 역할을 해야 할 언론을 퇴보시키는 것은 아닌가 하는 우려 때문에 존경하는 우리 윤영찬 위원님께서도 오히려 알고리즘을 폐지해야 되는 것 아닌가라는 우려가 있는 것 아니겠습니까?
결국은 다른 나라들, EU나 미국에서 관련된 법제도를 정비하는 것이 시급하게 진행이 되고 있는데 우리나라도 이제 범부처 차원의 그런 규제 혁신, 법제도 정비 추진되고 있어서 참 다행스럽게 생각합니다.
우리 최경진 교수님께 여쭤보겠습니다.
포털 알고리즘의 문제점 중에서 가장 중요한 것은 앞서 언급드린 것처럼 인공지능 알고리즘이 과연 가치중립적이고 또 100% 완벽한가라는 것에 대한 우려입니다. 어떻게 생각하십니까?
결국은 다른 나라들, EU나 미국에서 관련된 법제도를 정비하는 것이 시급하게 진행이 되고 있는데 우리나라도 이제 범부처 차원의 그런 규제 혁신, 법제도 정비 추진되고 있어서 참 다행스럽게 생각합니다.
우리 최경진 교수님께 여쭤보겠습니다.
포털 알고리즘의 문제점 중에서 가장 중요한 것은 앞서 언급드린 것처럼 인공지능 알고리즘이 과연 가치중립적이고 또 100% 완벽한가라는 것에 대한 우려입니다. 어떻게 생각하십니까?

예, 맞습니다.
그게 제일 중요한 우려 지점이라고 봐야 되겠지요?

사실은 아직까지 우리가 인공지능 혹은 알고리즘을 개발하고 있지만 아직 완벽하지 않은 것은 사실이거든요. 그렇기 때문에 기술자들은 계속적으로 완벽하게 만들기 위해서 노력하는 것이고 그 과정에서 설명 가능성이라든가 또는 규범적 측면에서의 문제가 없도록 하기 위한 그런 제도적 장치들을 마련하는 것이 또 우리의 논의의 목표라고 생각됩니다.
다음, 이수영 교수님께 질문드리겠습니다.
아마 윤리와 관련된 문제에 있어서 인공지능의 윤리가 결국은 인간의 윤리일 수밖에 없지 않겠습니까?
아마 윤리와 관련된 문제에 있어서 인공지능의 윤리가 결국은 인간의 윤리일 수밖에 없지 않겠습니까?

예, 맞습니다.
제작자나 포털 사업주의 어떤 의지가 결국은 알고리즘에 반영될 거라고 생각하는데 어떻게 생각하세요?

결국은 사람한테 요구하는 윤리나 마찬가지고요. 그러면 개발자가 뭘 원할 거냐, 결국은 개발자는 사람이, 사용자가 원하는 쪽을 충족시켜 주려고 노력할 수밖에 없습니다.
결국은 알고리즘은 그 내재적 속성이 편향성을 가질 수밖에 없다는 생각을 하게 되는 것이지요?

편향성이 사용자가 갖고 있는 편향성, 사회적으로 갖고 있는 편향성을 그대로 본뜰 가능성이 높습니다.
알겠습니다.
수고하셨습니다.
다음, 김영식 위원님 질의해 주십시오.
다음, 김영식 위원님 질의해 주십시오.
경북 구미시을 김영식입니다.
오늘 진술하신 분들 말씀 잘 들었습니다.
오늘 정리를 좀 해 보면 첫 번째는 알고리즘은 어디까지 공개가 되어야 하는가, 두 번째로는 누가 검증을 해야 되는가, 세 번째는 어떻게 관리를 할 것인가 이렇게 저는 대분된다고 봅니다.
아까 우리 이수영 교수님께서 좋은 말씀 해 주셨는데 인간과 사회를 보면 인간이 살고 있는 사회는 인간이 인간에게 영향을 미칩니다. 인공지능도 인간과 인공지능도 영향을 미칩니다. 왜냐하면 인간이 생성한 데이터를 가지고 인공지능이 그것을 해석을 하기 때문에 그렇습니다. 또 인공지능과 인공지능도 해석을 미친다고 했었습니다.
이와 같은 관점에서 우리의 문제를 어떻게 풀 것인가를 저는 생각을 한번 해 봤습니다. 심리분석학자 지그문트 프로이트가 인간의 세 가지 속성을 이야기했습니다. 원초적 자아 그리고 자아 그다음에 초자아라고 얘기했었습니다.
여기 보면 초자아라는 것은 결국 우리 인간이 갖고 있는 속성 탐욕 이런 부분들을 어떻게 관리를 할 것인가 하는 부분이 오늘 우리가 문제를 풀고자 하는 내용이라 저는 이렇게 봅니다.
그와 같은 것을 우리가 어떻게 검증할 것인가 이것이 굉장히 중요한데 결국은 알고리즘도 인간이 만드는 것입니다. 그래서 지금 저는 이 부분에서 우리가 이 문제를 접근을 하고 풀자라는 말씀을 좀 드리고요.
그러면 이 알고리즘의 공개 범위를 어디까지 할 것인가라는 부분도 굉장히 중요하고, 저도 인공지능을 나름대로 짜 봤기 때문에 이 부분 잘 알고 있습니다. 그래서 여기 계신 두 분이 회사에서 나오셨습니다만 결국 코딩하시는 분들의 로직에 의해서 짜여질 수밖에 없고요. 결국 어떤 로직을 가졌냐 하는 것은 CTO들이 아마 협의를 통해서 결정한다고 저는 보고 있습니다.
지금 우리가 하고 있는 상업적인 부분과 기술적인 부분 두 가지가 있어요. 그러니까 뉴스적인 부분과 상업적인 부분 두 가지가 아마 큰 화두가 되고 있는데 조금 전에 존경하는 이용빈 위원님께서도 말씀하셨듯이 언론의 편향성, 그러니까 이 개혁도 굉장히 중요하다고 봅니다. 가짜뉴스 퇴출시켜야지요. 그러나 이것이 어떤 의도를 가지고 하느냐도 저는 굉장히 중요하다고 봅니다.
그래서 얼마 전에 우리가 조국 백서에 보면 검찰개혁 다음에는 언론개혁이라고 이야기했었습니다. 이 포털 알고리즘도 개혁을 하는 것은 좋은데 어떤 식으로 하고 어떻게 개혁할 것인가 하는 부분은 철저하게 저는 검증이 되어야 된다. 그래서 우리가 헌법에 보면 언론의 경우는 검열받지 않는다고 이야기가 들어가 있습니다.
그러면 두 번째는 뭔가 하면 누가 검증을 해야 되는가. 이것은 결국 아까 말씀드렸습니다마는 인간의 초자아입니다. 양심을 가지고 해야 된다는 겁니다. 그래서 오픈하는 것이 맞다고 저는 보고 있고요. 그래서 이 오픈되는 로직을 철저하게 검증하는 방식은 어느 누구도 사적인 또 편향성이 없는 형태에서 공개 검증이 되어야 된다 저는 이렇게 말씀드리고 싶습니다.
그래서 오늘 이수영 교수님께서 오셨는데 감사하다는 말씀을 드리고요. 혹시 제가 말씀드린 부분에 대해 가지고 말씀 한번 해 주시면 고맙겠습니다.
오늘 진술하신 분들 말씀 잘 들었습니다.
오늘 정리를 좀 해 보면 첫 번째는 알고리즘은 어디까지 공개가 되어야 하는가, 두 번째로는 누가 검증을 해야 되는가, 세 번째는 어떻게 관리를 할 것인가 이렇게 저는 대분된다고 봅니다.
아까 우리 이수영 교수님께서 좋은 말씀 해 주셨는데 인간과 사회를 보면 인간이 살고 있는 사회는 인간이 인간에게 영향을 미칩니다. 인공지능도 인간과 인공지능도 영향을 미칩니다. 왜냐하면 인간이 생성한 데이터를 가지고 인공지능이 그것을 해석을 하기 때문에 그렇습니다. 또 인공지능과 인공지능도 해석을 미친다고 했었습니다.
이와 같은 관점에서 우리의 문제를 어떻게 풀 것인가를 저는 생각을 한번 해 봤습니다. 심리분석학자 지그문트 프로이트가 인간의 세 가지 속성을 이야기했습니다. 원초적 자아 그리고 자아 그다음에 초자아라고 얘기했었습니다.
여기 보면 초자아라는 것은 결국 우리 인간이 갖고 있는 속성 탐욕 이런 부분들을 어떻게 관리를 할 것인가 하는 부분이 오늘 우리가 문제를 풀고자 하는 내용이라 저는 이렇게 봅니다.
그와 같은 것을 우리가 어떻게 검증할 것인가 이것이 굉장히 중요한데 결국은 알고리즘도 인간이 만드는 것입니다. 그래서 지금 저는 이 부분에서 우리가 이 문제를 접근을 하고 풀자라는 말씀을 좀 드리고요.
그러면 이 알고리즘의 공개 범위를 어디까지 할 것인가라는 부분도 굉장히 중요하고, 저도 인공지능을 나름대로 짜 봤기 때문에 이 부분 잘 알고 있습니다. 그래서 여기 계신 두 분이 회사에서 나오셨습니다만 결국 코딩하시는 분들의 로직에 의해서 짜여질 수밖에 없고요. 결국 어떤 로직을 가졌냐 하는 것은 CTO들이 아마 협의를 통해서 결정한다고 저는 보고 있습니다.
지금 우리가 하고 있는 상업적인 부분과 기술적인 부분 두 가지가 있어요. 그러니까 뉴스적인 부분과 상업적인 부분 두 가지가 아마 큰 화두가 되고 있는데 조금 전에 존경하는 이용빈 위원님께서도 말씀하셨듯이 언론의 편향성, 그러니까 이 개혁도 굉장히 중요하다고 봅니다. 가짜뉴스 퇴출시켜야지요. 그러나 이것이 어떤 의도를 가지고 하느냐도 저는 굉장히 중요하다고 봅니다.
그래서 얼마 전에 우리가 조국 백서에 보면 검찰개혁 다음에는 언론개혁이라고 이야기했었습니다. 이 포털 알고리즘도 개혁을 하는 것은 좋은데 어떤 식으로 하고 어떻게 개혁할 것인가 하는 부분은 철저하게 저는 검증이 되어야 된다. 그래서 우리가 헌법에 보면 언론의 경우는 검열받지 않는다고 이야기가 들어가 있습니다.
그러면 두 번째는 뭔가 하면 누가 검증을 해야 되는가. 이것은 결국 아까 말씀드렸습니다마는 인간의 초자아입니다. 양심을 가지고 해야 된다는 겁니다. 그래서 오픈하는 것이 맞다고 저는 보고 있고요. 그래서 이 오픈되는 로직을 철저하게 검증하는 방식은 어느 누구도 사적인 또 편향성이 없는 형태에서 공개 검증이 되어야 된다 저는 이렇게 말씀드리고 싶습니다.
그래서 오늘 이수영 교수님께서 오셨는데 감사하다는 말씀을 드리고요. 혹시 제가 말씀드린 부분에 대해 가지고 말씀 한번 해 주시면 고맙겠습니다.

감사합니다.
적극적으로 동의하고요. 다만 공개의 범위를, 수준을 어디까지 할 거냐인데 개발자 입장에서는 소스코드까지 공개하는 것은 아주 심각한 위험이 있는 경우를 제외하고는 안 했으면 좋겠습니다라는 생각을 하고요. 현재 인공지능이 사실은 코드 자체보다는 어떤 데이터를 가지고 무엇을 위해서 최적화를 시켰느냐, 그러니까 결국 인공지능은 어떤 목적을 주면 그 목적에 맞게끔 최적화시키기 때문에 그 목적을 어떻게 하는지를 구체화시켜 주는 수준은 모든 경우에서 중요할 것 같습니다.
적극적으로 동의하고요. 다만 공개의 범위를, 수준을 어디까지 할 거냐인데 개발자 입장에서는 소스코드까지 공개하는 것은 아주 심각한 위험이 있는 경우를 제외하고는 안 했으면 좋겠습니다라는 생각을 하고요. 현재 인공지능이 사실은 코드 자체보다는 어떤 데이터를 가지고 무엇을 위해서 최적화를 시켰느냐, 그러니까 결국 인공지능은 어떤 목적을 주면 그 목적에 맞게끔 최적화시키기 때문에 그 목적을 어떻게 하는지를 구체화시켜 주는 수준은 모든 경우에서 중요할 것 같습니다.
네이버, 카카오에서 오셨는데 제가 봤을 때는 로직을 짤 때 많은 토의를 해 가지고 짠다고 저는 봅니다. 나름 어떤 기본적인 생각을 가지고 짠다고 보는데 그러나 여기 보면 많은 분들이 좀 불편한 부분들을 제기하고 있습니다. 그래서 이런 부분들이 제기가 됐을 때 어떠한 형태로 수정․보완을 하시는지 루트가 어떻게 진행되고 있는지 궁금해 가지고 두 분한테 한번 묻겠습니다.
카카오부터 말씀해 주시면 고맙겠습니다.
카카오부터 말씀해 주시면 고맙겠습니다.

제가 먼저 말씀드리겠습니다.
말씀 주신 부분에 저희도 계속해서 고개를 끄덕이게 되는 부분이 있습니다. 저희도 굉장히 많은 부서와 다양한 개발자들이 모여서 일을 하고 있고요. 사전에, 서비스하기 전에 저희 내부적으로 A/B 테스트를 통해 가지고 이용자의 이야기들 그리고 보이스들 결괏값들을 지금 서비스에 반영하고 있는 중입니다.
그럼에도 불구하고 말씀 주신 대로 부족한 부분이 있을 수 있기 때문에 이용자들이 직접 선택할 수 있는 부분에 대해서 현재 내부적으로 서비스를 이미 고민하고 있고요. 이것이 좀 더 구체화되면 저희가 미리 말씀드릴 수 있도록 하겠습니다.
말씀 주신 부분에 저희도 계속해서 고개를 끄덕이게 되는 부분이 있습니다. 저희도 굉장히 많은 부서와 다양한 개발자들이 모여서 일을 하고 있고요. 사전에, 서비스하기 전에 저희 내부적으로 A/B 테스트를 통해 가지고 이용자의 이야기들 그리고 보이스들 결괏값들을 지금 서비스에 반영하고 있는 중입니다.
그럼에도 불구하고 말씀 주신 대로 부족한 부분이 있을 수 있기 때문에 이용자들이 직접 선택할 수 있는 부분에 대해서 현재 내부적으로 서비스를 이미 고민하고 있고요. 이것이 좀 더 구체화되면 저희가 미리 말씀드릴 수 있도록 하겠습니다.

위원님, 좋은 질문 감사드립니다.
현재 저희가 연구개발하는 단계는 크게, 어떤 기능에 대한 니즈(needs)가 있고요. 그래서 저희가 논문을 읽거나 여러 가지 최신 논문들이나 아니면 뉴스와 관련된 그런 내용들을 가지고 새로운 기능이나 아니면 예를 들어서 최근에는 저희가 원치 않는 매체를 숨길 수 있는 기능들 같은 것들을 추가하려고 준비하고 있는데요. 그렇게 먼저 서베이(survey)하는 기간을 거치고요.
그리고 그걸 가지고 저희가 알고리즘상으로 오프라인 테스트를 통해서 어느 정도 사용자에게 미치는 영향들을 내부적으로 먼저 평가를 해 봅니다. 그러고 나서 어느 정도 사용자에 미치는 영향이 좋은 쪽으로 날 것 같다고 판단이 되면 실제 사용자 중의 일부분, 예를 들어서 1% 정도의 사용자들을 대상으로 버킷 테스트를 실시를 하게 됩니다. A/B 테스트 결과를 통해서 실제로 사용자가 원하는 쪽으로, 아까 이수영 교수님께서 말씀해 주신 대로 사용자가 원하는 쪽으로 저희가 뭔가 서비스적으로 개선이 됐다라고 느껴지면 그것들을 배포하는 과정을 거치고 있습니다.
(발언시간 초과로 마이크 중단)
(마이크 중단 이후 계속 발언한 부분)
현재 저희가 연구개발하는 단계는 크게, 어떤 기능에 대한 니즈(needs)가 있고요. 그래서 저희가 논문을 읽거나 여러 가지 최신 논문들이나 아니면 뉴스와 관련된 그런 내용들을 가지고 새로운 기능이나 아니면 예를 들어서 최근에는 저희가 원치 않는 매체를 숨길 수 있는 기능들 같은 것들을 추가하려고 준비하고 있는데요. 그렇게 먼저 서베이(survey)하는 기간을 거치고요.
그리고 그걸 가지고 저희가 알고리즘상으로 오프라인 테스트를 통해서 어느 정도 사용자에게 미치는 영향들을 내부적으로 먼저 평가를 해 봅니다. 그러고 나서 어느 정도 사용자에 미치는 영향이 좋은 쪽으로 날 것 같다고 판단이 되면 실제 사용자 중의 일부분, 예를 들어서 1% 정도의 사용자들을 대상으로 버킷 테스트를 실시를 하게 됩니다. A/B 테스트 결과를 통해서 실제로 사용자가 원하는 쪽으로, 아까 이수영 교수님께서 말씀해 주신 대로 사용자가 원하는 쪽으로 저희가 뭔가 서비스적으로 개선이 됐다라고 느껴지면 그것들을 배포하는 과정을 거치고 있습니다.
(발언시간 초과로 마이크 중단)
마지막으로 말씀드리겠습니다.
인공지능의 윤리가 인간의 윤리가 되어야 된다. 그래서 인공지능을 하나의 기계로 보지 마시고 인간으로 보시고 그 로직을 짰으면 좋겠다 이런 말씀 좀 드리고 싶습니다.
이상입니다.
감사합니다.
인공지능의 윤리가 인간의 윤리가 되어야 된다. 그래서 인공지능을 하나의 기계로 보지 마시고 인간으로 보시고 그 로직을 짰으면 좋겠다 이런 말씀 좀 드리고 싶습니다.
이상입니다.
감사합니다.
수고하셨습니다.
시간 못 드려서 죄송합니다. 오전 중에 끝나야 돼서요.
이해해 주실 것을 부탁드리겠습니다.
다음, 허은아 위원님 질의해 주십시오.
시간 못 드려서 죄송합니다. 오전 중에 끝나야 돼서요.
이해해 주실 것을 부탁드리겠습니다.
다음, 허은아 위원님 질의해 주십시오.
국민의힘 허은아입니다.
네 분의 진술인 말씀 정말 잘 들었습니다.
고민을 많이 해 주신다는 생각이 들었고 그리고 저희가 알고리즘 자체를 바라보는 관점에 대해서 고민을 할 필요가 있겠구나라는 생각을 했습니다.
우선 저는 두 분의 참고인에게 질문할 예정입니다.
포털이 뉴스를 배열하려면 당연히 순서가 있을 수밖에 없을 것 같고 또 이걸 나열하는 기준이 완전히 가치중립적일 수는 없을 것 같습니다. 지금 최경진 교수님께서 말씀하셨던 가치 내재적인 문제, 도구냐, 그것을 사용하는 사람에 대한 비유를 해 주셨는데 그런 것 때문인 것 같은데요.
그렇다고 본인의 가치관과 다르다라고 해서 이것이 잘못이 있는 것처럼 생각하는 것도 다소 편협한 관점이 아닐까라는 생각이 들고 그런 차원에서 지난 ‘들어와 포털’ 협박 같은 부분은 정치성을 배제해야 된다는 최 교수님의 말에도 반하는 것이 아닌가, 그러한 진상규명 같은 것들이 필요한 상황인데 이런 공청회가 좀 다른 방향으로 가고 있는 게 아닌가 하는 생각이 듭니다.
그런 측면에서 또 다르게 말씀드린다면 정부에서 매년 알고리즘을 제출받고 관리해야 할 정도의 상황인가, 이 상황이? 저는 그렇게 생각하지는 않고 있거든요. 하지만 이 문제는 그간에 포털 사업자들이 실제로 국민 여론에 많은 영향력이나 파급력을 가져온 데 비해서 국민과 소비자들이 이해할 수 있도록 충분한 설명을 해 주지 않았던 것, 그 노력이 좀 부족한 것에서 발생한 것이 아닌가 하는 생각이 듭니다.
저희 국민의힘에서 대안을 마련했었습니다. 지금 기업의 핵심 경쟁력으로서의 도구의 내용, 가치 내재적인 부분, 이런 부분을 말씀해 주셨던 진술인의 말씀에 의해서 저희가 좀 보면 아시다시피 네이버는 지난 대선에 드루킹 댓글, 여론조사 조작했다라는 것 때문에 의혹을 받으셨고요. 또 당시 네이버 뉴스 담당 윤영찬 부사장이 대선 직후에 민주당 국회의원으로 진출한 사실과 또 네이버 뉴스제휴팀의 고주희 팀장이 최근에 문재인 청와대로 옮긴 사실만 고려를 해도 네이버 뉴스가 민주당 정권과 모종의 유착 관계가 있다라는 의심을 사기에 충분하다라는 얘기를 많이 들으셨을 거예요. 이게 아마 내재적 가치에 대한 문제일 것 같습니다.
그런데 그러한 시점도 얘기를 했었습니다. 지난 3월 7일에 MBC ‘스트레이트’가 네이버 뉴스 알고리즘이 보수화됐다고 주장했어요. 그러면서 이틀 후에, 3월 9일에 TBS ‘김어준의 뉴스공장’에서 같은 주장을 확대 재생산을 했습니다. 그 후에 갑자기 뉴스 알고리즘 검토위원회를 위한 준비위원회가 구성됐다는 점이 네이버의 민주당 코드 맞추기라는 의구심이 들었던 부분, 아마 알고 계실 겁니다.
그래서 저희 국민의힘이 대안을 제시했던 것들이 공정성을 담보하는 조건을 위해서 준비위원회가 여야 합의로 구성되어야 된다는 말씀을 드렸고 또 뉴스 알고리즘 검토위원회의 공개할 범위를 사전에 좀 제시해 줬으면 좋겠다, 네이버가 2018년부터 동명의 위원회를 구성하면서 노력을 좀 해 왔었던 것 같은데 그것을 공개하라라는 말씀을 드렸고 또 위원회의 목적이 검토가 아니라 공정성과 그것에 대한 확보라는 부분들을 함께 이야기해야 된다, 그래서 위원회의 정식 명칭을 뉴스 알고리즘 공정성 위원회로 해야 된다라는 말씀으로 드렸던 것 같습니다.
그래서 저의 생각에는 기본적으로, 김동원 실장께서 뉴스 추천에 대한 알고리즘에 한계가 있다라는 것을 네이버나 카카오가 인정해야 된다라는 말씀을 해 주시기까지 했는데요. 이러한 부분은 성급하게 어떤 법적 의무를 부과하기보다는 우선 포털 사업자가 자율적으로 윤리적 가이드라인을 정하도록 하는 것이, 그 부분이 좀 더 적절한 것이 아닌가 하는 생각이 저는 좀 듭니다.
네 분의 진술인도 거의 그렇게 말씀하시고 계시다고 저는 느끼고 있거든요. 맞습니까, 네 분?
네 분의 진술인 말씀 정말 잘 들었습니다.
고민을 많이 해 주신다는 생각이 들었고 그리고 저희가 알고리즘 자체를 바라보는 관점에 대해서 고민을 할 필요가 있겠구나라는 생각을 했습니다.
우선 저는 두 분의 참고인에게 질문할 예정입니다.
포털이 뉴스를 배열하려면 당연히 순서가 있을 수밖에 없을 것 같고 또 이걸 나열하는 기준이 완전히 가치중립적일 수는 없을 것 같습니다. 지금 최경진 교수님께서 말씀하셨던 가치 내재적인 문제, 도구냐, 그것을 사용하는 사람에 대한 비유를 해 주셨는데 그런 것 때문인 것 같은데요.
그렇다고 본인의 가치관과 다르다라고 해서 이것이 잘못이 있는 것처럼 생각하는 것도 다소 편협한 관점이 아닐까라는 생각이 들고 그런 차원에서 지난 ‘들어와 포털’ 협박 같은 부분은 정치성을 배제해야 된다는 최 교수님의 말에도 반하는 것이 아닌가, 그러한 진상규명 같은 것들이 필요한 상황인데 이런 공청회가 좀 다른 방향으로 가고 있는 게 아닌가 하는 생각이 듭니다.
그런 측면에서 또 다르게 말씀드린다면 정부에서 매년 알고리즘을 제출받고 관리해야 할 정도의 상황인가, 이 상황이? 저는 그렇게 생각하지는 않고 있거든요. 하지만 이 문제는 그간에 포털 사업자들이 실제로 국민 여론에 많은 영향력이나 파급력을 가져온 데 비해서 국민과 소비자들이 이해할 수 있도록 충분한 설명을 해 주지 않았던 것, 그 노력이 좀 부족한 것에서 발생한 것이 아닌가 하는 생각이 듭니다.
저희 국민의힘에서 대안을 마련했었습니다. 지금 기업의 핵심 경쟁력으로서의 도구의 내용, 가치 내재적인 부분, 이런 부분을 말씀해 주셨던 진술인의 말씀에 의해서 저희가 좀 보면 아시다시피 네이버는 지난 대선에 드루킹 댓글, 여론조사 조작했다라는 것 때문에 의혹을 받으셨고요. 또 당시 네이버 뉴스 담당 윤영찬 부사장이 대선 직후에 민주당 국회의원으로 진출한 사실과 또 네이버 뉴스제휴팀의 고주희 팀장이 최근에 문재인 청와대로 옮긴 사실만 고려를 해도 네이버 뉴스가 민주당 정권과 모종의 유착 관계가 있다라는 의심을 사기에 충분하다라는 얘기를 많이 들으셨을 거예요. 이게 아마 내재적 가치에 대한 문제일 것 같습니다.
그런데 그러한 시점도 얘기를 했었습니다. 지난 3월 7일에 MBC ‘스트레이트’가 네이버 뉴스 알고리즘이 보수화됐다고 주장했어요. 그러면서 이틀 후에, 3월 9일에 TBS ‘김어준의 뉴스공장’에서 같은 주장을 확대 재생산을 했습니다. 그 후에 갑자기 뉴스 알고리즘 검토위원회를 위한 준비위원회가 구성됐다는 점이 네이버의 민주당 코드 맞추기라는 의구심이 들었던 부분, 아마 알고 계실 겁니다.
그래서 저희 국민의힘이 대안을 제시했던 것들이 공정성을 담보하는 조건을 위해서 준비위원회가 여야 합의로 구성되어야 된다는 말씀을 드렸고 또 뉴스 알고리즘 검토위원회의 공개할 범위를 사전에 좀 제시해 줬으면 좋겠다, 네이버가 2018년부터 동명의 위원회를 구성하면서 노력을 좀 해 왔었던 것 같은데 그것을 공개하라라는 말씀을 드렸고 또 위원회의 목적이 검토가 아니라 공정성과 그것에 대한 확보라는 부분들을 함께 이야기해야 된다, 그래서 위원회의 정식 명칭을 뉴스 알고리즘 공정성 위원회로 해야 된다라는 말씀으로 드렸던 것 같습니다.
그래서 저의 생각에는 기본적으로, 김동원 실장께서 뉴스 추천에 대한 알고리즘에 한계가 있다라는 것을 네이버나 카카오가 인정해야 된다라는 말씀을 해 주시기까지 했는데요. 이러한 부분은 성급하게 어떤 법적 의무를 부과하기보다는 우선 포털 사업자가 자율적으로 윤리적 가이드라인을 정하도록 하는 것이, 그 부분이 좀 더 적절한 것이 아닌가 하는 생각이 저는 좀 듭니다.
네 분의 진술인도 거의 그렇게 말씀하시고 계시다고 저는 느끼고 있거든요. 맞습니까, 네 분?

예.
그렇다면 이 부분에 대해서 참고인으로 오신 최재호 이사님과 김희정 부사장님은 어떻게 생각하시는지 답변 부탁드립니다.

카카오에서 먼저 말씀드리겠습니다.
저희는 이미 영업기밀을 해치는 수준이 아니라면 적극적으로 외부에 공개를 하고 있는 상황입니다. 그런데도 부족한 부분이 있다면 더 투명하게 공개하도록 내부적으로 계속 검토를 하겠습니다. 앞서 말씀드린 대로 저희는 이미 18년도에 카카오……
저희는 이미 영업기밀을 해치는 수준이 아니라면 적극적으로 외부에 공개를 하고 있는 상황입니다. 그런데도 부족한 부분이 있다면 더 투명하게 공개하도록 내부적으로 계속 검토를 하겠습니다. 앞서 말씀드린 대로 저희는 이미 18년도에 카카오……
윤리적 가이드를 말씀드리는 겁니다. 굳이 그런 걸 모두 다 공개할 필요가 있다라고 말씀드리는 건 아니고요. 공개가 필요한 정도가 있다라는 얘기거든요.

예. 그래서 공개의 수준에 대해서 합의해 주시면 계속 검토를 할 예정이고요. 저희는 이미 말씀드린 대로 알고리즘 윤리 헌장을 공포하고 직원들이 계속 교육을 받고 우려해 주신 부분에 대해서 이미 계속해서 내부적으로 시행을 하고 있는 상황입니다.

지금 진술인 자료에도 나와 있는 것처럼 저희도 네이버 AI 윤리 준칙을 공개한 상태이고요. 그리고 뉴스 알고리즘 관련해서는 저희가 3년 전에 했었고 그리고 올해 한다는 내용에 대해서 작년부터 저희가 말씀을 드렸던 내용이라서 이것이 특별히 어떤 외부의 그런 것에 의해서 된 것은 아니라는 말씀 드리고 싶습니다.
(발언시간 초과로 마이크 중단)
(마이크 중단 이후 계속 발언한 부분)
(발언시간 초과로 마이크 중단)
지금은 회사 내에서의 말씀을 하셨는데, 저는 이수영 교수님께서 말씀하셨던 윤리적 가이드 부분의 측면에서 말씀을 드린 부분인데요. 추후에 좀 더 이야기할 수 있다면 저는 그 부분에 대한 것들을 두 분의 의견 듣고 싶거든요. 지금 이수영 교수 발언하신 것 들으셨잖아요. 이수영 교수 발언 내용 보시면 아마 윤리 관련된 내용이 있을 겁니다. 그 부분에 대한 것을 괜찮으시다면 참고인 두 분이 저한테 자료라도 보내 주시면 감사할 것 같습니다.

예, 좀 더 검토해 보고 보고드리겠습니다.

예, 알겠습니다. 검토하겠습니다.
예.
의사진행발언 있습니다.
신상발언 있습니다.
윤영찬 위원님.
존경하는 허은아 위원께서 저에 대해서 이야기를 하셨는데 일단 사실관계가 다른 것부터 하나를 지적하겠습니다.
제가 문재인 캠프에 합류를 한 시점은 제가 대외 담당 임원이었고요. 뉴스 담당 임원이 아니었음을 제가 분명히 말씀드리고요.
동료 위원에 대해서 그 내용 자체도 정확히 파악하지 못하시고 이렇게 명예훼손성으로 얘기를 하시는 것에 대해서 대단히 유감스럽고요.
그리고 제가 뉴스 담당을 한 건 훨씬 전이지만 그 당시에 가장 많은 압력을 행사했던 분들은 바로 국민의힘의 전신 당이었습니다.
제가 문재인 캠프에 합류를 한 시점은 제가 대외 담당 임원이었고요. 뉴스 담당 임원이 아니었음을 제가 분명히 말씀드리고요.
동료 위원에 대해서 그 내용 자체도 정확히 파악하지 못하시고 이렇게 명예훼손성으로 얘기를 하시는 것에 대해서 대단히 유감스럽고요.
그리고 제가 뉴스 담당을 한 건 훨씬 전이지만 그 당시에 가장 많은 압력을 행사했던 분들은 바로 국민의힘의 전신 당이었습니다.
말 좀 조심하세요.
말조심하는 게 아니고요, 사실을 말씀드린 거예요.
같이 말을 조심하셔야지요.
본인의 하자가 많은 사람이……
제가 하자가 많다니요? 무슨 하자가 많습니까?
사․보임될 사람이, 앉아 있는 사람이 잘못된 거지……
뭐가 하자가 많습니까? 똑바로 얘기하세요!
좀 이따 내가 질의할 테니까……
질의에 이런 의도를 가지고 하는 것 자체가 말씀 조심하셔야지요.
똑바로 얘기하세요. 제가 신상발언하고 있잖아요, 지금!
안 했던 걸 했다고 하는데, 그게 뭐가 문제입니까!
우리가 징계 요구까지 하고 사․보임까지 요청한 사람이 할 말이 아니지!
발언 끝나고 얘기하세요.
발언 끝나고 이야기하시라고요!
발언 끝나고 이야기하시라고요!
카카오 들어오라고 한 사람, 당사자가 누구야?
카카오 들어오라고……
그러면 과거에 네이버 들어오라고 한 사람들 누굽니까?
그 의원님들 제가 말씀드릴까요?
그러면 과거에 네이버 들어오라고 한 사람들 누굽니까?
그 의원님들 제가 말씀드릴까요?
누가 들어오라 했어요?
폭로를 할까요?
하세요.
그 사안 자체를, 이 문제를, 알고리즘에 대해서 우리가…… 지금 정말 중요한 문제입니다. 이 사안에 대해서 정말 알고리즘 검증이 필요하느냐 아니냐는 우리 사회 전체가 알고리즘의 시스템 속으로 들어가고 있기 때문에 매우 중요한 이슈고 오늘 그 자리에서 알고리즘이 필요한가를 가지고 이야기를 하고 있었습니다.
그런데 사실관계도 정확하게 파악하지 않고 동료 위원에 대해서, 어떤 상태에서 어떻게 갔는지에 대한 내용 자체도 모르시면서 동료 위원을 그렇게 모욕을 준다는 이 행위에 대해서 제가 정말 분노하지 않을 수가 없고요.
허은아 위원님은 그 사실이 다른 이야기를 하신 것에 대해서 사과하십시오.
그런데 사실관계도 정확하게 파악하지 않고 동료 위원에 대해서, 어떤 상태에서 어떻게 갔는지에 대한 내용 자체도 모르시면서 동료 위원을 그렇게 모욕을 준다는 이 행위에 대해서 제가 정말 분노하지 않을 수가 없고요.
허은아 위원님은 그 사실이 다른 이야기를 하신 것에 대해서 사과하십시오.
제가 말씀드려도 됩니까?
의사진행발언 있습니다.
허은아 위원님.
지금 저는 윤영찬 위원님께서 의원님이 아니실 때 말씀하셨던 것을 말씀드렸던 것 같고, 2015년도 국정감사에서 말씀하셨던 부분과 지금 또 반하는 말씀을 하고 계십니다.
언론중재법 개정안과 관련해서는 일단 기사라는 것들이 어떻게 배열되는 부분들이, 그 배열에 대한 심의를 중재위라든지 행정관청에서 이것을 봤을 경우에 사실은 배열 하나하나가 언론사의 기사에 대한 심의로 갈 수밖에 없기 때문에 언론의 자유를 위축시킬 수가 있는 여지가 있다고 생각을 한다라고 말씀을 하셔서 저는 그와 비슷한 방향으로 말씀을 드린 거라고 생각을 하고요.
그리고 당시 네이버 뉴스 담당 부사장이셨던 것은 사실이고 그 외에……
언론중재법 개정안과 관련해서는 일단 기사라는 것들이 어떻게 배열되는 부분들이, 그 배열에 대한 심의를 중재위라든지 행정관청에서 이것을 봤을 경우에 사실은 배열 하나하나가 언론사의 기사에 대한 심의로 갈 수밖에 없기 때문에 언론의 자유를 위축시킬 수가 있는 여지가 있다고 생각을 한다라고 말씀을 하셔서 저는 그와 비슷한 방향으로 말씀을 드린 거라고 생각을 하고요.
그리고 당시 네이버 뉴스 담당 부사장이셨던 것은 사실이고 그 외에……
네이버 뉴스 담당 부사장이었던 적이 없습니다. 대외 담당 부사장이었습니다.
그렇습니까?
사과하세요.
그 부분에 대해서는 제가 잘못 알았다면 시정을 하도록 하고요.
그 뉘앙스 자체가 완전히 다른 이야기기 때문에, 제가 뉴스 담당을 하면서 캠프에 들어갔다는 것하고 대외 담당을 하면서 여러 의원님들을 찾아다니면서 또 불려가면서 만난 부분하고 완전히 다른 얘기거든요.
다시 한번 말씀드리면 저희가 2021년 포털공정특위에서 말씀 나눴던 부분들을 제가 지금 읽어 드렸었던 부분이고요.
아니요, 그것을 읽어 드렸다고 이야기를 하시지 않았지요.
그때 관련됐던 부분에 대해서 말씀하시지 않으셨던 부분……
인용 자체가 문제인 겁니다.
그 인용 자체가 잘못됐으면 사과하셔야지요.
제가 얘기할 때 말씀을 하셔도 되는 건가요?
윤영찬 위원님, 발언 중이시니까……
기본적으로 저희가 보도자료를 이미 냈었던 내용입니다.
(자료를 들어 보이며)
보도자료 냈었던 내용을 제가 읽어 드린 부분이고요. 그리고 그때는 말씀을 하시지 않았던 것이기 때문에 저는 그렇게까지 과하게 판단하실 거라고 생각하지 못했고, 기본적인 질문에 대한 내용은 저는 당시 윤영찬 증인의 발언에 근거해서 기본적으로 참고인과 진술인에게 말씀을 드렸다라는 것을 다시 한번 말씀드립니다.
(자료를 들어 보이며)
보도자료 냈었던 내용을 제가 읽어 드린 부분이고요. 그리고 그때는 말씀을 하시지 않았던 것이기 때문에 저는 그렇게까지 과하게 판단하실 거라고 생각하지 못했고, 기본적인 질문에 대한 내용은 저는 당시 윤영찬 증인의 발언에 근거해서 기본적으로 참고인과 진술인에게 말씀을 드렸다라는 것을 다시 한번 말씀드립니다.
참고인과……
제가 지나고 말씀드리겠습니다.
제가 지나고 말씀드리겠습니다.
한준호 위원님.
저는 이 질의에 대한 의도에 대해서 여쭤보고 싶어요.
동료 위원을 칭할 때도 인용을 할 때도 저희가 최소한의 예의를 지키면서 지금까지 상임위를 했다고 생각을 합니다. 전신이었던 당에서 했던 일들 이런 것들에 대해서 언급할 때도 저희는 최소한의 예의를 지키면서, 상대 위원의 이름이라든지 상대 당이 했던 것들에 대한 전력이라든지 이런 내용들을 저희는 가급적이면 자제를 하면서 여태까지 질의를 해 왔어요.
허은아 위원님께서 윤영찬 위원에 대해서 전력과 이 내용들을 질의 과정 중에 인용을 하는 것 자체가 의도가 있지 않고는 무슨 의미가 있겠습니까. 인용을 하셨다고 하는데 인용을 하실 때도 최소한 상임위 내에서 지켜야 되는 예의가 있다고 생각을 합니다. 저희가 그런 것들 때문에 서로 상호 존중을 하자는 이야기를 반복적으로 하고 있는 것 아니겠습니까.
그래서 이 부분에 대해서는 허은아 위원님께서 분명히 사과를 하셔야 됩니다.
동료 위원을 칭할 때도 인용을 할 때도 저희가 최소한의 예의를 지키면서 지금까지 상임위를 했다고 생각을 합니다. 전신이었던 당에서 했던 일들 이런 것들에 대해서 언급할 때도 저희는 최소한의 예의를 지키면서, 상대 위원의 이름이라든지 상대 당이 했던 것들에 대한 전력이라든지 이런 내용들을 저희는 가급적이면 자제를 하면서 여태까지 질의를 해 왔어요.
허은아 위원님께서 윤영찬 위원에 대해서 전력과 이 내용들을 질의 과정 중에 인용을 하는 것 자체가 의도가 있지 않고는 무슨 의미가 있겠습니까. 인용을 하셨다고 하는데 인용을 하실 때도 최소한 상임위 내에서 지켜야 되는 예의가 있다고 생각을 합니다. 저희가 그런 것들 때문에 서로 상호 존중을 하자는 이야기를 반복적으로 하고 있는 것 아니겠습니까.
그래서 이 부분에 대해서는 허은아 위원님께서 분명히 사과를 하셔야 됩니다.
그동안 상호 존중을 받은 적이 없고요.
상호 존중받은 적이 없다고요?
저의 이름에 대해서도 언급을 하신 적이 여러 번 있습니다.
제가 지금 말하고 있습니다. 제 발언 시간이에요.
아, 예.
이 부분에 대해서 신상발언을 하도록 만들고, 지금 얼마 되지 않은 시간 동안에 공청회를 열어서 진행하고 있는데 상대 위원에 대한 질의 하나 가지고 몇 분을 지금 저희가 소요를 하고 있습니까.
전체 공청회가 위원님께서 한 발언으로 인해 가지고 멈춰 있는 것에 대해서도 이것은 문제가 있는 거예요. 상대 위원에 대한 것들은……
전체 공청회가 위원님께서 한 발언으로 인해 가지고 멈춰 있는 것에 대해서도 이것은 문제가 있는 거예요. 상대 위원에 대한 것들은……
상대 위원보다……
저 발언하고 있습니다, 좀.
윤영찬 위원에 대한 부분이 더 크기 때문에 일부 약간의……
저희가 예전에 발언할 때도 그런 데서 다 항상 껴드셨잖아요.
착오가 있는 부분이 되더라고 서로 끝내야지 뭐 하는 겁니까, 지금.
발언권은 제가 가지고 있어요.
아니, 윤영찬 위원하고 같이 근무했다고 그것까지 꼭 밝혀 줘야 되겠습니까.
그럼요. 넘어갑니까?
언론사에서 당에 들어온 분들은, 그러면 언론사가 그 당의 의원님과 내재화되어 있습니까? 여기에 언론사 출신은 안 계십니까?
윤영찬 위원은 직접 관계했고, 들어오라고 했기 때문에 하는 거예요.
똑바로 이야기하시라고요.
아니, 네이버에서 갔다는 게 왜 네이버가 내재화되는 겁니까. 똑바로 이야기하셔야지요.
아니, 네이버에서 갔다는 게 왜 네이버가 내재화되는 겁니까. 똑바로 이야기하셔야지요.
아니, 상대 위원에 대해서 이렇게……
청와대 들어간 것하고 국민들 투표를 통해서 선출된 국회하고 그게 무슨 상관이에요. 왜 거기다 갖다 붙여요.
아니, 똑같이 비호할 수 있는 것 아닙니까.
자, 이제 그만하겠습니다. 그만하고……
권력이 선택한 것하고 국민이 선택한 것하고 같나, 어디. 갖다 붙일 것을 갖다 붙여야지.
언론사 출신이 정당에 들어왔다고 그 언론사가 정당에 내재화됩니까? 말도 안 되는 이야기를……
그만하세요, 이제.
양쪽 다 제지하세요.
양쪽 다 제지하세요.
공청회장이니까 조용히 해 주세요. 조용히 해 주십시오.
그만하세요, 이제.
원래 취지로 돌아가서 알고리즘 관련된 공청회를 진행합시다.
원래 취지로 돌아가서 알고리즘 관련된 공청회를 진행합시다.
조용히 해 주세요.
마무리하겠습니다.
한준호 위원님 26초 남은 것 하시고 더 이상 의사진행발언이나 신상발언 같은 것 없도록 하겠습니다.
제가 조용히 질의 전에 잠깐만 하겠습니다.
제가 마무리하겠습니다. 시간 주세요.
이 자리에 진술인들이 이렇게 나와 계시는데 저희가 진술인들에 대한 예의도 아닙니다.
20초 남았습니다.
20초 남았습니다.
저는 이 부분에 대해서 분명히 허은아 위원께서 의도를 가진 질의라고 생각을 하고 윤영찬 위원에 대한 사과를 요청을 합니다.
마무리하겠습니다.
마무리하겠습니다.
다음, 정필모 위원님 질의해 주십시오.
질의하기 전에, 상대 위원에 대한 정치적 공격을 질의 시간에 했다는 것은 공청회의 목적과도 맞지 않다고 보고 매우 유감스럽게 생각한다는 말씀을 드립니다.
질의드리겠습니다.
우선 포털 알고리즘 문제와 관련해서 투명성, 책임성, 공정성, 저는 사실 이것을 객관적으로 검증한다는 것이 거의 불가능에 가깝다고 생각을 합니다.
우선 투명성 문제는 과연 어디까지 공개할 것이냐, 그리고 그것을 학습한 것까지, 딥러닝해서 학습한 것까지 과연 설계자 외의 사람이 이것을 이해할 수 있는가 하는 문제가 있는 것이고요.
그다음에 책임성…… 지금 포털에서 나오신 두 분, 인공지능 자체 기계가 하는 것이기 때문에 사람이 개입하지 않는다 이런 식으로 책임에 대해서도 굉장히 회피하는 듯한 그런 말씀을 하시고 있고요.
공정성 문제는 사실상 가치 판단의 문제이기 때문에 이것은 다양한 의견이 존재할 수 있는 겁니다. 오히려 페어니스(fairness)라는 의미의 공정성보다는 불편부당성(impartiality) 개념으로 접근하는 것이 저는 옳다고 보고요. 그것조차도 검증하는 것이 쉽지 않다고 생각을 합니다.
김동원 실장님한테 질의드리겠습니다.
특히 공정성 문제와 관련해서 과연 우리가 객관적으로 검증해서 공정하다고 판단할 수 있는 것이 가능하다고 생각하십니까?
질의드리겠습니다.
우선 포털 알고리즘 문제와 관련해서 투명성, 책임성, 공정성, 저는 사실 이것을 객관적으로 검증한다는 것이 거의 불가능에 가깝다고 생각을 합니다.
우선 투명성 문제는 과연 어디까지 공개할 것이냐, 그리고 그것을 학습한 것까지, 딥러닝해서 학습한 것까지 과연 설계자 외의 사람이 이것을 이해할 수 있는가 하는 문제가 있는 것이고요.
그다음에 책임성…… 지금 포털에서 나오신 두 분, 인공지능 자체 기계가 하는 것이기 때문에 사람이 개입하지 않는다 이런 식으로 책임에 대해서도 굉장히 회피하는 듯한 그런 말씀을 하시고 있고요.
공정성 문제는 사실상 가치 판단의 문제이기 때문에 이것은 다양한 의견이 존재할 수 있는 겁니다. 오히려 페어니스(fairness)라는 의미의 공정성보다는 불편부당성(impartiality) 개념으로 접근하는 것이 저는 옳다고 보고요. 그것조차도 검증하는 것이 쉽지 않다고 생각을 합니다.
김동원 실장님한테 질의드리겠습니다.
특히 공정성 문제와 관련해서 과연 우리가 객관적으로 검증해서 공정하다고 판단할 수 있는 것이 가능하다고 생각하십니까?

제가 아까 말씀드렸던 것처럼 알고리즘과 플랫폼 사업자들이 생각하고 있는 공정성이라는 개념과 또 언론인 출신 위원님들께서 생각하시는 공정성…… 설마 공정성이라고 하는 것을 여야를 같은 비율로 보도하는 것을 공정성이라 보지 않으실 겁니다. 상당히 다른 차이가 있고.
제가 알고 있기로 이 두 분의 포털 참고인께서 말씀하실 것 같은데요. 공정성이라는 것은 말 그대로 굉장히 가치 지향적인 문제이기 때문에 그 가치 지향적이고 인위적인 문제를 알고리즘을 통해서 검증한다는 것은 불가능하다고 저는 봅니다.
그래서 바로 두 분들께서도 늘 하시는 얘기가 이용자 최적화라는 말을 가장 많이 쓰고 있기 때문에 공정성에 대한 검증은 힘들다고 봅니다.
제가 알고 있기로 이 두 분의 포털 참고인께서 말씀하실 것 같은데요. 공정성이라는 것은 말 그대로 굉장히 가치 지향적인 문제이기 때문에 그 가치 지향적이고 인위적인 문제를 알고리즘을 통해서 검증한다는 것은 불가능하다고 저는 봅니다.
그래서 바로 두 분들께서도 늘 하시는 얘기가 이용자 최적화라는 말을 가장 많이 쓰고 있기 때문에 공정성에 대한 검증은 힘들다고 봅니다.
시간이 없어서 짧게 짧게 말씀해 주셨으면 좋겠습니다.
그다음에 김진욱 변호사님 말씀하신 것에 저는 전적으로 동의를 합니다.
일찍이 2011년에 엘리 프레이저라는 사람이 필터 버블(filter bubble) 문제를 얘기하면서 이것이 소위 다양한 정보 접근을 차단함으로써 확증 편향을 강화시킬 것이라는 경고를 한 바 있습니다. 실제로 우리 사회뿐만 아니라 다른 나라에서조차 이 문제는 계속 지속적으로 문제가 제기되고 있는 것이고요.
특히 김진욱 변호사님 말씀하셨듯이 온라인 여론 왜곡 및 의사형성․판단 왜곡, 주권자인 국민의 민주적 의사 결정에 그릇된 영향을 미쳐서 민주주의에 해악으로 작용하는 등 사회적으로 심각한 결과를 야기할 수 있다.
이 얘기는 뭐냐 하면 우리가 아무리 문명의 이기를 만들어 내면 뭐 합니까? 이것이 가져오는 해악이 오히려 더 크다면 이 문제에 대한 근본적인 접근을 다시 해야 된다고 생각을 합니다.
김진욱 변호사님 어떻게 생각하십니까?
짧게 얘기해 주세요.
그다음에 김진욱 변호사님 말씀하신 것에 저는 전적으로 동의를 합니다.
일찍이 2011년에 엘리 프레이저라는 사람이 필터 버블(filter bubble) 문제를 얘기하면서 이것이 소위 다양한 정보 접근을 차단함으로써 확증 편향을 강화시킬 것이라는 경고를 한 바 있습니다. 실제로 우리 사회뿐만 아니라 다른 나라에서조차 이 문제는 계속 지속적으로 문제가 제기되고 있는 것이고요.
특히 김진욱 변호사님 말씀하셨듯이 온라인 여론 왜곡 및 의사형성․판단 왜곡, 주권자인 국민의 민주적 의사 결정에 그릇된 영향을 미쳐서 민주주의에 해악으로 작용하는 등 사회적으로 심각한 결과를 야기할 수 있다.
이 얘기는 뭐냐 하면 우리가 아무리 문명의 이기를 만들어 내면 뭐 합니까? 이것이 가져오는 해악이 오히려 더 크다면 이 문제에 대한 근본적인 접근을 다시 해야 된다고 생각을 합니다.
김진욱 변호사님 어떻게 생각하십니까?
짧게 얘기해 주세요.

저도 위원님 입장에 전적으로 공감하고요.
확증 편향이 강화됨으로써 사회적 갈등이 더 심화되고, 이것에 대한 해결 의무가 저는 정치권에 있다고 생각이 됩니다.
확증 편향이 강화됨으로써 사회적 갈등이 더 심화되고, 이것에 대한 해결 의무가 저는 정치권에 있다고 생각이 됩니다.
좋습니다.
그렇다면 네 분 진술인 그다음에 두 분 참고인께도 다 여쭙겠습니다.
차제에 포털의 뉴스 콘텐츠의 추천 기능을 아예 없애고 단순 검색 기능만 갖게, 그것도 인링크(inlink) 방식이 아닌 아웃링크(outlink) 방식으로 전환하는 것에 대해서는 어떻게 생각하십니까?
아까 진술 순서대로 말씀해 주십시오.
우선 김진욱 변호사님.
그렇다면 네 분 진술인 그다음에 두 분 참고인께도 다 여쭙겠습니다.
차제에 포털의 뉴스 콘텐츠의 추천 기능을 아예 없애고 단순 검색 기능만 갖게, 그것도 인링크(inlink) 방식이 아닌 아웃링크(outlink) 방식으로 전환하는 것에 대해서는 어떻게 생각하십니까?
아까 진술 순서대로 말씀해 주십시오.
우선 김진욱 변호사님.

저는 전적으로 공감합니다.

저는 다른 생각을 조금 갖고 있고요. 결국 문명의 이기가 양날의 칼인데 단점이 있다고 없애 버리기보다는 장점을 더 허용하는 방법을 강구하는 게 좋다고 생각합니다.
없앤다는 것은 아니고요, 구글과 같은 단순 검색 기능만 갖자는 것이지요.
그다음에 최경진 교수님.
그다음에 최경진 교수님.

그에 대해서는 저희가 사회적 합의가 뭔지를 들여다봐야 될 것 같습니다.
그렇지요. 사회적 합의가 중요하지요.

정말 사회적 합의가 있는지가 궁금한 것 같고요. 그에 따라서 결정해야 될 것 같습니다.
김동원 실장님.

공식적으로 아웃링크 방식의 제공과 검색의 품질 향상이 목적이 되어야 된다고 봅니다.
두 분 참고인도 말씀해 주시기 바랍니다.

저희 네이버 같은 경우도 이미 검색창을 통해서 뉴스를 제공하고 있고요. 인링크 방식과 아웃링크 방식 모두 제공하고 있습니다.
그리고 뉴스 같은 경우에 추천 기능은 아까 말씀드린 대로 대부분의 사용자들이 구독을 기반으로 하고 있고 30% 정도만 보조적인 수단이기 때문에 사회적 합의를 통해서 판단할 문제라고 생각합니다.
그리고 뉴스 같은 경우에 추천 기능은 아까 말씀드린 대로 대부분의 사용자들이 구독을 기반으로 하고 있고 30% 정도만 보조적인 수단이기 때문에 사회적 합의를 통해서 판단할 문제라고 생각합니다.

저희도 사회적 요구에 따라서 현재의 시스템을 도입하고 있고 인링크, 아웃링크 모두 제공을 하고 있는 상황입니다.
주신 내용에 대해서 아직까지 고려는 못 하고 있지만 사회적 합의를 이뤄 주신다면 저희도 적극 검토하도록 하겠습니다.
(발언시간 초과로 마이크 중단)
(마이크 중단 이후 계속 발언한 부분)
주신 내용에 대해서 아직까지 고려는 못 하고 있지만 사회적 합의를 이뤄 주신다면 저희도 적극 검토하도록 하겠습니다.
(발언시간 초과로 마이크 중단)
제가 이 말씀을 드리는 것은 클릭 수 경쟁, 터치 수 경쟁을 하다 보면요 언론시장에서 악화가 양화를 구축합니다. 이 생태계를 양화가 악화를 구축하는 식으로 바꾸기 위해서는 저는 추천 기능이 갖는 소위 필터 버블의 문제를 해결하지 않고서는 불가능하다고 말씀드리는 것이고요.
사회적 합의가 필요하다면 저희 정치권이나 또는 여론을 주도하는 오피니언 리더들이 이 부분에 대한 사회적 합의를 이끌어 내야 된다고 생각합니다.
이상입니다.
사회적 합의가 필요하다면 저희 정치권이나 또는 여론을 주도하는 오피니언 리더들이 이 부분에 대한 사회적 합의를 이끌어 내야 된다고 생각합니다.
이상입니다.
수고하셨습니다.
다음, 황보승희 위원님 질의해 주십시오.
다음, 황보승희 위원님 질의해 주십시오.
제가 앞서서 발표하시는 것을 못 듣기는 했지만 자료로 1차 검토를 했기 때문에 관련해서 질의를 좀 드리도록 하겠습니다.
저는 이렇게 생각합니다. AI 알고리즘을 공개하느냐 안 하느냐의 문제도 물론 중요하겠지만, 정보 공유 차원과 투명성 확보 차원에서, 그런데 사실은 회사에서 알고리즘을 계속 바꾸지 않습니까, 어떤 이유에서든. 그래서 그것을 언제, 어떤 이유로 또 누가 변경했는지 이런 것들을 구독자에게 또는 국민에게 공개할 필요가 있지 않나 이런 생각이 듭니다.
왜냐하면 계속해서 저희가 정치 중립성과 관련해서 뉴스에 있어서 포털에서 알고리즘에 뭔가 영향력을 미치느냐 안 미치느냐, 회사의 운영진들 오너가 영향을 미치느냐 안 미치느냐 이런 문제로 계속 공방이 있기 때문에 적어도 구글처럼 기본적인 알고리즘의 기초 정보는 제공을 하고, 변경 사유가 있을 때 그 변경 사유에 대해서 고시한다거나 공고한다거나 하는 것들을 통해서 회사의 개입 여부에 대해서 국민들이 관심을 가지고 볼 수 있도록, 그리고 내가 보는 뉴스가 어떤 이유로 나에게 어떤…… 조작은 아니고 어떤 프로그램을 통해서 제공되는지 알 수 있도록 하는 게 저는 필요하다고 생각하고요.
그래서 제가 과기부와 방통위에다가 자료 요청을 했습니다. 네이버와 다음이 알고리즘을 언제 변경했는지, 변경 시점 리스트 그리고 변경할 때마다 어떤 변화를 주고 있는지, 그리고 변경을 논의할 때 의사결정 과정에 누가 참여했는지, 그리고 알고리즘 변경 여부에 대해서 최종 결정권자가 누구인지 또 알고리즘 변경에 대한 포털사 측의 내부규정이 어떻게 되어 있는지 달라고 요청을 했는데 정확한 답변이 지금 없는 상태입니다.
이런 것들 확인을 통해서 포털사가 AI 알고리즘 운영에 대해서 투명성과 공정성을 확인해야 된다고 생각하고 또 이용자들이 자신이 보고 있는 뉴스가 어떤 알고리즘 기준을 통해서 제공되고 있는지 제대로 이해하는 것이 필요하다고 생각하는데 참석해 주신 진술인들께서 혹시 제 의견에 의견이 있으시면 답변을 부탁드리겠고요.
네이버와 다음 관계자들 나와 계시지요, 제가 요청한 자료에 대해서 자료 제출을 좀 해 주실 것을 부탁을 드리겠습니다.
저는 이렇게 생각합니다. AI 알고리즘을 공개하느냐 안 하느냐의 문제도 물론 중요하겠지만, 정보 공유 차원과 투명성 확보 차원에서, 그런데 사실은 회사에서 알고리즘을 계속 바꾸지 않습니까, 어떤 이유에서든. 그래서 그것을 언제, 어떤 이유로 또 누가 변경했는지 이런 것들을 구독자에게 또는 국민에게 공개할 필요가 있지 않나 이런 생각이 듭니다.
왜냐하면 계속해서 저희가 정치 중립성과 관련해서 뉴스에 있어서 포털에서 알고리즘에 뭔가 영향력을 미치느냐 안 미치느냐, 회사의 운영진들 오너가 영향을 미치느냐 안 미치느냐 이런 문제로 계속 공방이 있기 때문에 적어도 구글처럼 기본적인 알고리즘의 기초 정보는 제공을 하고, 변경 사유가 있을 때 그 변경 사유에 대해서 고시한다거나 공고한다거나 하는 것들을 통해서 회사의 개입 여부에 대해서 국민들이 관심을 가지고 볼 수 있도록, 그리고 내가 보는 뉴스가 어떤 이유로 나에게 어떤…… 조작은 아니고 어떤 프로그램을 통해서 제공되는지 알 수 있도록 하는 게 저는 필요하다고 생각하고요.
그래서 제가 과기부와 방통위에다가 자료 요청을 했습니다. 네이버와 다음이 알고리즘을 언제 변경했는지, 변경 시점 리스트 그리고 변경할 때마다 어떤 변화를 주고 있는지, 그리고 변경을 논의할 때 의사결정 과정에 누가 참여했는지, 그리고 알고리즘 변경 여부에 대해서 최종 결정권자가 누구인지 또 알고리즘 변경에 대한 포털사 측의 내부규정이 어떻게 되어 있는지 달라고 요청을 했는데 정확한 답변이 지금 없는 상태입니다.
이런 것들 확인을 통해서 포털사가 AI 알고리즘 운영에 대해서 투명성과 공정성을 확인해야 된다고 생각하고 또 이용자들이 자신이 보고 있는 뉴스가 어떤 알고리즘 기준을 통해서 제공되고 있는지 제대로 이해하는 것이 필요하다고 생각하는데 참석해 주신 진술인들께서 혹시 제 의견에 의견이 있으시면 답변을 부탁드리겠고요.
네이버와 다음 관계자들 나와 계시지요, 제가 요청한 자료에 대해서 자료 제출을 좀 해 주실 것을 부탁을 드리겠습니다.

김진욱 변호사입니다.
위원님 말씀 전적으로 공감하고요.
포털 측에서 알고리즘에 의해서 100% 콘텐츠 노출이라든지 한다고 하지만 실제로 알고리즘이 작동되는 과정이라든지 말씀하신 중간중간에 변경 함수값을 입력한다든지 알고리즘이 어떻게 작동되고 있는지에 대해서는 담당자들이 수시로 모니터링을 할 수밖에 없는 상황입니다. 그런데 마치 그런 것들이 전혀 배제된 것처럼 두 포털에서 얘기하는 것이 약간 의아스럽고요.
그 부분이 위원님 말씀하신 것처럼 자료 제공을 통해서 확인되고 그것이 포털 알고리즘 검토․검증 과정에 충분히 활용될 필요가 있다고 생각이 됩니다.
위원님 말씀 전적으로 공감하고요.
포털 측에서 알고리즘에 의해서 100% 콘텐츠 노출이라든지 한다고 하지만 실제로 알고리즘이 작동되는 과정이라든지 말씀하신 중간중간에 변경 함수값을 입력한다든지 알고리즘이 어떻게 작동되고 있는지에 대해서는 담당자들이 수시로 모니터링을 할 수밖에 없는 상황입니다. 그런데 마치 그런 것들이 전혀 배제된 것처럼 두 포털에서 얘기하는 것이 약간 의아스럽고요.
그 부분이 위원님 말씀하신 것처럼 자료 제공을 통해서 확인되고 그것이 포털 알고리즘 검토․검증 과정에 충분히 활용될 필요가 있다고 생각이 됩니다.
또 혹시 말씀하실 분……
참고인께 제가 여쭤볼게요.
카카오와 네이버, 알고리즘 변경을 수시로 합니까, 실제?
참고인께 제가 여쭤볼게요.
카카오와 네이버, 알고리즘 변경을 수시로 합니까, 실제?

위원님께서 말씀하신 변경이 시스템적인 변경이라든가 여러 가지 모델의 업데이트 과정까지 포함한다면 굉장히 자주 일어나고 있습니다.
자주 일어납니까?

예.
카카오는 어떻습니까?

큰 틀에서의 알고리즘 변화라기보다는요 서비스 기능 개선을 위해서는 저희도 서비스를 지속적으로 업데이트를 하고는 있습니다.
큰 틀에서의 알고리즘 기본 얼개가 있겠지요. 그것 정도는 공개를 하고, 그 이후에 프로그램에 있어서 변화되는 부분에 대해서 그것은 알려도 무방하지 않나요?

큰 틀에서의 변화들은 저희가 안내문이라든가 미리 사전 공지 등을 통해서 서비스 하단 같은 데 고시를 하기도 하고요. 그리고 기술적인 내용에 대해서는 논문을 발표한다든가 아니면 테크 블로그 같은 데다 게재를 하기도 합니다.
사용자분들은 그렇게 크게 관심은 없으십니다.
사용자분들은 그렇게 크게 관심은 없으십니다.
관심은 많이 없으시겠지요. 그런데 관심 있는 분들이 많으시잖아요. 그리고 누군가는 그것을 모니터링해야 되기 때문에 저희가 의회에서 이런 것을 논의를 하고 있는 것이고.
(발언시간 초과로 마이크 중단)
(마이크 중단 이후 계속 발언한 부분)
짧게 하나만요.
확증 편향, 그러니까 내가 본 기사에 대해서 계속 AI가 추천을 함으로 인해서 확증 편향이 일어나고 그것 때문에 사회가 더 양극화된다는 문제점을 아마 다 공유를 하고 계실 텐데, 두 회사에서 물론 이게 영업과 관련된 부분이기는 하겠지만 저 같은 경우는 제가 본 기사와 관련해서 AI가, 그 회사가 기사를 추천해 주는 것 원하지 않습니다. 그렇기 때문에 기사 추천을 원하지 않는 사람은 알림, 소위 우리가 선택할 수 있도록, 추천해 달라 아니면 추천을 하지 말라 이런 선택을 통해서 구독자의 자율성을 확보할 수 있는 방법은 없을까요?
(발언시간 초과로 마이크 중단)
짧게 하나만요.
확증 편향, 그러니까 내가 본 기사에 대해서 계속 AI가 추천을 함으로 인해서 확증 편향이 일어나고 그것 때문에 사회가 더 양극화된다는 문제점을 아마 다 공유를 하고 계실 텐데, 두 회사에서 물론 이게 영업과 관련된 부분이기는 하겠지만 저 같은 경우는 제가 본 기사와 관련해서 AI가, 그 회사가 기사를 추천해 주는 것 원하지 않습니다. 그렇기 때문에 기사 추천을 원하지 않는 사람은 알림, 소위 우리가 선택할 수 있도록, 추천해 달라 아니면 추천을 하지 말라 이런 선택을 통해서 구독자의 자율성을 확보할 수 있는 방법은 없을까요?

그 말씀 주신 부분이 사실 저희가 구독자 기반의 언론사 판과 ‘MY뉴스’를 나눈 이유였고요. ‘MY뉴스’ 같은 경우에는 그런 구독을 하지 않거나 일일이 이렇게 조정하지 않아도, 관심사 기반이라고 하지요. 아니면 나랑 같은 기사를 본 사람들이 어떤 걸 봤는지 확인하는 용도로 보조적인 수단으로 제공을 해 왔습니다.
그런데 최근에 들어서 말씀 주신 대로 ‘아, 나 이것 보기 싫은데’ 약간 이런 사용자분들의 피드백이 있어서 매체를 숨겨서 할 수 있는 기능들을 곧 제공할 예정입니다.
그런데 최근에 들어서 말씀 주신 대로 ‘아, 나 이것 보기 싫은데’ 약간 이런 사용자분들의 피드백이 있어서 매체를 숨겨서 할 수 있는 기능들을 곧 제공할 예정입니다.
이상입니다.
수고하셨습니다.
다음, 한준호 위원님 질의해 주십시오.
다음, 한준호 위원님 질의해 주십시오.
먼저, 영상 준비됐나요? 짧게 하나만 보고 가겠습니다.
(영상자료 상영)
AI 다섯 살짜리 아이를 만들어서 실험을 해 봤습니다.
여기까지만 보여 주세요.
이게 LG하고 딥러닝 기술을 가지고 있는 회사와 함께 AI 다섯 살짜리 아이를 만들어서 실험을 해 봤습니다. 각각 다른 데이터를 넣은 거지요, 상황을 그렇게 만들어 줬으니까. 확인된 건, 아이가 딥러닝을 통해서 배운다라는 것은 분명히 확인을 했습니다.
두 번째 다른 결과에 대해서는 판단이 필요합니다. 이게 아마도 오늘 논의되어야 되는 이야기가 아닌가 싶습니다. 그래서 입력정보의 중요성에 대해서 오늘 이수영 교수님께서 말씀을 많이 해 주셨는데 목적이 무엇이냐, 어떠한 데이터가 들어가느냐, 쉽게 얘기하면 함수를 하나 정해 놓고 그간에는 어떤 변수들을 집어넣어서 답을 냈다라고 한다면 이제 이걸 반복적으로 딥러닝하면서 차츰 학습을 해 가는 과정들이 AI의 실체가 아닌가 싶습니다.
오늘 이야기에 있어서 포털의 알고리즘과 보도의 노출, 약간은 별개일 수 있으나 같은 기술을 쓰고 있기 때문에 아마 논의가 지금 같이 되고 있는 것 같아요.
이수영 교수님과 최경진 교수님께 간단하게 질문 하나 드리겠습니다.
최근 5년 내에 이러한 입력하는 데이터를 객관화할 수 있는, 객관성을 담보할 수 있는 기술 발전이 많이 있었습니까? 간단하게만 답해 주셔도 돼요.
(영상자료 상영)
AI 다섯 살짜리 아이를 만들어서 실험을 해 봤습니다.
여기까지만 보여 주세요.
이게 LG하고 딥러닝 기술을 가지고 있는 회사와 함께 AI 다섯 살짜리 아이를 만들어서 실험을 해 봤습니다. 각각 다른 데이터를 넣은 거지요, 상황을 그렇게 만들어 줬으니까. 확인된 건, 아이가 딥러닝을 통해서 배운다라는 것은 분명히 확인을 했습니다.
두 번째 다른 결과에 대해서는 판단이 필요합니다. 이게 아마도 오늘 논의되어야 되는 이야기가 아닌가 싶습니다. 그래서 입력정보의 중요성에 대해서 오늘 이수영 교수님께서 말씀을 많이 해 주셨는데 목적이 무엇이냐, 어떠한 데이터가 들어가느냐, 쉽게 얘기하면 함수를 하나 정해 놓고 그간에는 어떤 변수들을 집어넣어서 답을 냈다라고 한다면 이제 이걸 반복적으로 딥러닝하면서 차츰 학습을 해 가는 과정들이 AI의 실체가 아닌가 싶습니다.
오늘 이야기에 있어서 포털의 알고리즘과 보도의 노출, 약간은 별개일 수 있으나 같은 기술을 쓰고 있기 때문에 아마 논의가 지금 같이 되고 있는 것 같아요.
이수영 교수님과 최경진 교수님께 간단하게 질문 하나 드리겠습니다.
최근 5년 내에 이러한 입력하는 데이터를 객관화할 수 있는, 객관성을 담보할 수 있는 기술 발전이 많이 있었습니까? 간단하게만 답해 주셔도 돼요.

불가능하다고 생각을 합니다. 사람마다 다 다르고 문화마다 다 다릅니다.
예.
최 교수님.
최 교수님.

예, 마찬가지입니다. 똑같은 생각입니다.
2015년, 정책토론회가 있었습니다. 당시 여당의 질문에 네이버 유봉석 이사―포털 관련된 유봉석 이사입니다―‘알고리즘 짜는 것도 인간이고 기계적 알고리즘 속에 숨어서 자의성이 개입될 수 있다’, 즉 수작업을 전면 부인하지 않았습니다. 데이터 수정도 했겠지요. 알고리즘 수정도 했을 테고요.
그러면 2018년에 네이버 뉴스 알고리즘검토위가 돌아가서 결과를 냈습니다. ‘알고리즘, 문제가 없다’라고 했어요. 최재호 이사님, 기억하시지요?
그러면 2018년에 네이버 뉴스 알고리즘검토위가 돌아가서 결과를 냈습니다. ‘알고리즘, 문제가 없다’라고 했어요. 최재호 이사님, 기억하시지요?

예.
2021년에 MBC ‘스트레이트’에서 뉴스 부문에 있어서 의문을 제기했습니다. 공정위에서는 입점 업체 상품검색 결과 개입으로 인해서 쇼핑 분야에 시정명령과 260억 원의 과징금을 때렸지요. 맞지요, 이사님?

예.
최근 5년 내에 데이터에 대한 객관성을 띨 수 있는 기술 발전도 없었고 알고리즘과 관련해서 예전 네이버 측에서도 수작업을 전면 부인하지 않았고 최근에 나오고 있는 여러 가지 내용들로 봤을 때도 알고리즘은 분명히 인위적인 내용들 또는 인위적인 조작, 이렇게 표현하기는 좀 그렇지만 있을 수 있다라는 가정이 지금 현재 존재를 하는 겁니다.
그런데 포털과 관련해서 가장 논란이고 되고 있는 것은, 오늘 전국언론노동조합에서도 오시기는 했지만 뉴스검색 아니겠습니까? 존경하는 정필모 위원께서도 인링크 언론사들에 대한 배제 부분들을 좀 거론하셨는데……
김희정 카카오 실장님, 원래 지금 현재 위치에 계시기 전에 어느 부서에 계셨었지요?
그런데 포털과 관련해서 가장 논란이고 되고 있는 것은, 오늘 전국언론노동조합에서도 오시기는 했지만 뉴스검색 아니겠습니까? 존경하는 정필모 위원께서도 인링크 언론사들에 대한 배제 부분들을 좀 거론하셨는데……
김희정 카카오 실장님, 원래 지금 현재 위치에 계시기 전에 어느 부서에 계셨었지요?

다양한 곳에서 업무를 하고 있었고요, 직전에……
이모티콘 있는 부서에 계시다가 최근에 오셨지요?

예, 이모티콘 부서에서 있었습니다.
완전 자동화라고 말씀을 하셨는데 완전 자동화의 의미가 뭔지 짧게만……

중간중간에 사람이 개입해서 판단을 하지 않는다는 의미이고요, 시스템적으로 자동화가 되어 있다는 말씀을 드리겠습니다.
그러면 지금까지 제가 얘기했던 것들이 잘못이네요?
그래서 제가 네이버 측과 카카오 측에 동일한 질문을 드려 봐야 정필모 위원님과 비슷한 대답을 하실 거기 때문에 이런 말씀을 드리고 싶습니다. 목적이라고 말씀하셨는데…… 이수영 교수님께서 목적의 중요성에 대해서 말씀하셨습니다. 알고리즘은 어떠한 목적으로 설계가 되어 있는지, 어떠한 목적으로 수정이 되어 가고 있는지가 공개가 되어야 되는 것입니다. 이 부분에 대해서 양 포털사에서는 공정성을 어떻게 국민들에게 확인시켜 줄 수 있는지 그리고 이 부분에 대해서 어떻게 담보할 수 있는 것인지에 대한 고민이 필요한 것이지요. 이 부분에 대한 말씀을 드리고 질문 마치겠습니다.
그래서 제가 네이버 측과 카카오 측에 동일한 질문을 드려 봐야 정필모 위원님과 비슷한 대답을 하실 거기 때문에 이런 말씀을 드리고 싶습니다. 목적이라고 말씀하셨는데…… 이수영 교수님께서 목적의 중요성에 대해서 말씀하셨습니다. 알고리즘은 어떠한 목적으로 설계가 되어 있는지, 어떠한 목적으로 수정이 되어 가고 있는지가 공개가 되어야 되는 것입니다. 이 부분에 대해서 양 포털사에서는 공정성을 어떻게 국민들에게 확인시켜 줄 수 있는지 그리고 이 부분에 대해서 어떻게 담보할 수 있는 것인지에 대한 고민이 필요한 것이지요. 이 부분에 대한 말씀을 드리고 질문 마치겠습니다.
수고하셨습니다.
다음, 홍익표 위원님 질의해 주십시오.
다음, 홍익표 위원님 질의해 주십시오.
오늘 네 분의 진술인과 두 분의 참고인 나와 주셔서 감사드리고요, 좋은 의견 주셔서 고맙습니다. 여러 가지로 배울 수 있는 기회가 됐다고 생각을 하는데요.
그런데 네 분 다 공통된 것은 일단 알고리즘 자체가 약간의 편향성을 갖고 있는 것은 인정을 하고 계신 것 같아요. 그리고 이것에 대해서 정부가 또는 정치권이 개입해서 하는 것보다는 뭔가 민간 차원에서 어느 정도의 검증이나 또는 개선안을 만들 그런 시스템을 만드는 것에 대해서는 필요하지 않나라는 것을 얘기하셨는데 혹시 이것에 반대하는 분 계신가요?
그런데 네 분 다 공통된 것은 일단 알고리즘 자체가 약간의 편향성을 갖고 있는 것은 인정을 하고 계신 것 같아요. 그리고 이것에 대해서 정부가 또는 정치권이 개입해서 하는 것보다는 뭔가 민간 차원에서 어느 정도의 검증이나 또는 개선안을 만들 그런 시스템을 만드는 것에 대해서는 필요하지 않나라는 것을 얘기하셨는데 혹시 이것에 반대하는 분 계신가요?

알고리즘에 편향성이 ‘있다’라기보다 ‘있을 수 있다’라는 게 정확한 표현이고요.
예, 있을 수 있다……

사회적인 합의가 필요하다는 게 아마 핵심일 겁니다.
그렇지요. 그러니까 현재로서는 결국은 사람이 그 알고리즘 자체는 만들기 때문에 예를 들면 설계자 또는 운영 과정에서도 인간의 내재적 가치가 포함될 수 있는 부분이 있다라는 거겠고요.
그리고 현재 김동원 진술인께서도 말씀하신 부분이 있지만 계속 오늘 우리가 이 국회에서 정치권이 논의하니까 뉴스의 공정성, 정치적 중립성만 얘기하는데 저는 이게 본질로 가면 자본의 독점성의 문제가 아닐까 생각됩니다.
왜 그러냐 하면 이게 우리나라에서만 문제가 되는 게 아니라 외국에서도 문제가 되고, 네이버에서는 어떻게 인정할지 모르겠는데 지난번 불공정행위로 지금 260억인가를 맞았지요? 그런데 그 핵심은 뭐냐 하면 플랫폼 사업자의 독점적 성격 그리고 그 알고리즘을 아무리 중립적으로 객관적으로 만들었다 하더라도 그것에 적응해 가는 자본력 있는 사업자들의 알고리즘에 대한 적응, 대응이 알고리즘의 왜곡을 만들었다라는 건데, 김동원 진술인께서 그런 주장을 해 주신 거지요?
그리고 현재 김동원 진술인께서도 말씀하신 부분이 있지만 계속 오늘 우리가 이 국회에서 정치권이 논의하니까 뉴스의 공정성, 정치적 중립성만 얘기하는데 저는 이게 본질로 가면 자본의 독점성의 문제가 아닐까 생각됩니다.
왜 그러냐 하면 이게 우리나라에서만 문제가 되는 게 아니라 외국에서도 문제가 되고, 네이버에서는 어떻게 인정할지 모르겠는데 지난번 불공정행위로 지금 260억인가를 맞았지요? 그런데 그 핵심은 뭐냐 하면 플랫폼 사업자의 독점적 성격 그리고 그 알고리즘을 아무리 중립적으로 객관적으로 만들었다 하더라도 그것에 적응해 가는 자본력 있는 사업자들의 알고리즘에 대한 적응, 대응이 알고리즘의 왜곡을 만들었다라는 건데, 김동원 진술인께서 그런 주장을 해 주신 거지요?

예, 맞습니다.
그러니까 이게 문제는 계속 끊임없이 알고리즘을 개선해 나가거나 보완해 나가지 않는다면 이런 거지요. 시장의 우월적인 지배자들, 그러니까 지금 언론으로 얘기하면 흔히 얘기해서 소위 메이저 언론이라고 할 수 있겠지요. 조선․중앙․동아 같은 메이저 언론사들에서는 이것에 대응하는 시스템을 만들었어요. 실제로 종이에 실리는 기사하고 인터넷 전용 하는 것하고 다 분리해서 운영하고 있습니다.
그래서 어떻게든 포털에 자사의 기사가 많이 실릴 수 있도록 그것들을 하고 있고 또 그쪽에서는 편집할 때 훨씬 더 자극적인 기사, 우리가 흔히 ‘낚시 기사’라고 하는 자극적인 기사를 올려서 지금 현재 포털에서 운영하고 있는 알고리즘을 어느 정도는 이해하고 거기에 적응해서 활용하고 있는 거지요. 악용을 하고 있는 거지요.
그다음에 두 번째, 더 큰 문제는 지난번에도 몇 번 네이버에서도 문제가 된 거지만 포털의 광고에 있어서 일종의 프로파일링을 해서 사람들에게 선택을, 사실상 우리가 의식하지 못하는 사이에 선택하게 만드는 형태로…… 지금 예를 들면 어떤 사람이 어떤 제품을 검색할 때 검색에 죽 나오는 우선순위, 당연히 우리는 제일 먼저 나오는 것이 가장 인기 있고 가장 좋은 제품이라는 선입관을 갖고 있어요. 그렇지 않습니까?
그러니까 이 문제는 결국은 몇 가지가 문제가 있는데 하나는 우리 포털이 가지고 있는 플랫폼 사업자들의 독점성의 문제 이걸 어떻게 규제할 거냐, 해소해 나갈 거냐 하는 문제가 첫 번째 숙제고요.
두 번째는 알고리즘과 관련되어서 계속 아무리 공정하고 객관적인 룰을 만들어도 자본력 있는 사업자들이 그걸 계속 악용할 수 있는 것들을 어떻게 방지할 거냐 하는 문제인데, 해외 사례를 좀 볼 것 같아요.
영국의 정보위원회 같은 경우는 인공지능에 대한 여섯 가지의 설명에 있어서, 근거에 대한 설명을 해 줘야 되고 책임자에 대한 설명―이 인공지능 개발과 결정․운영하는 걸 어떻게 하는지에 대한 책임자에 대한 설명―이 있고 그다음에 어떤 결정이 내려지는지 사용된 데이터에 대한 설명을 해야 되고요. 그다음에 형평성에 대한 설명, 안정성과 정확성에 대한 설명, 영향에 대한 평가 이런 것들을 설명하게 되어 있어요. 하라고 되어 있습니다.
저는 다음과 네이버가 이런 것을 설명할 준비가 되어 있는지 또 내부 규범을 만들었는지 또 이런 것에 대한 설명을 요구할 수 있는 민간 차원에서의 어떤 공적 기구, 저는 정부가 하는 것은 또 다른 정치적 편향성을 야기할 수 있기 때문에 이러한 것들을 일단은 포털 스스로가 운영을 해야 되고 거기에는 굉장히 객관적인 분들을 참여시켜야 될 필요가 있지 않나 생각을 합니다.
그리고 또 하나 마지막으로 제가 드리고 싶은 것은 지금 김희정 참고인도 계시고 최재호 참고인도 계시는데, 포털이 AI 알고리즘이라는 것에 숨어서 책임을 지지 않으려고 하는 것 때문에 그러는 것 아니냐는 거예요. 미국 같은 경우에는 2019년에 알고리즘 책임법안도 나왔고 필터 버블 투명성 법안도 2019년에 발의가 됐어요. 이것은 결국 인공지능 뒤에서 고위험……
(발언시간 초과로 마이크 중단)
(마이크 중단 이후 계속 발언한 부분)
시스템의 경우에는 기업에게 책임을 요구하는 것…… 그러니까 어떤 기업에게 책임을 요구하겠습니까? 결국에는 포털에서 책임을 져야 되는 거지요. 기사가 허위 기사나 잘못된 기사가 나왔을 때 이걸 그냥 언론사에만 책임을 묻는 게 아니라 이것을 상위에 배치하고 대량으로 포털을 통해서, 플랫폼을 통해서 퍼져 가면 그것에 대해서 그 알고리즘을 운영한 포털이 책임을 져야 되는 것 아니겠어요?
그리고 두 번째는 필터 버블 투명성도 마찬가지지요. 사용자가 동의하지 않으면…… 이것은 아까 누가 말씀하셨나요, 최 박사님이 얘기해 주셨나요? 유럽의 개인정보법에 따르면 이것 굉장히 중요한 겁니다. 사실 이것 반드시 우리가 해야 되는 거예요. 개인정보법에서도 해야 되고 기업은 반드시 본인이 동의하지 않으면 더 이상 이것을 추적하거나 하지 않아야 됩니다. 그런 시스템을 포털이 갖춰 줘야 되고요. 우리가 EU하고, 개인정보법 이걸 우리가 지키지 않으면 더 이상 해외 진출도 어려워요, 잘 아시는 것처럼.
저는 두 분 참고인이 혹시 그 책임에 대한 문제에 대해서는 공감하시는지 듣고 싶습니다.
그래서 어떻게든 포털에 자사의 기사가 많이 실릴 수 있도록 그것들을 하고 있고 또 그쪽에서는 편집할 때 훨씬 더 자극적인 기사, 우리가 흔히 ‘낚시 기사’라고 하는 자극적인 기사를 올려서 지금 현재 포털에서 운영하고 있는 알고리즘을 어느 정도는 이해하고 거기에 적응해서 활용하고 있는 거지요. 악용을 하고 있는 거지요.
그다음에 두 번째, 더 큰 문제는 지난번에도 몇 번 네이버에서도 문제가 된 거지만 포털의 광고에 있어서 일종의 프로파일링을 해서 사람들에게 선택을, 사실상 우리가 의식하지 못하는 사이에 선택하게 만드는 형태로…… 지금 예를 들면 어떤 사람이 어떤 제품을 검색할 때 검색에 죽 나오는 우선순위, 당연히 우리는 제일 먼저 나오는 것이 가장 인기 있고 가장 좋은 제품이라는 선입관을 갖고 있어요. 그렇지 않습니까?
그러니까 이 문제는 결국은 몇 가지가 문제가 있는데 하나는 우리 포털이 가지고 있는 플랫폼 사업자들의 독점성의 문제 이걸 어떻게 규제할 거냐, 해소해 나갈 거냐 하는 문제가 첫 번째 숙제고요.
두 번째는 알고리즘과 관련되어서 계속 아무리 공정하고 객관적인 룰을 만들어도 자본력 있는 사업자들이 그걸 계속 악용할 수 있는 것들을 어떻게 방지할 거냐 하는 문제인데, 해외 사례를 좀 볼 것 같아요.
영국의 정보위원회 같은 경우는 인공지능에 대한 여섯 가지의 설명에 있어서, 근거에 대한 설명을 해 줘야 되고 책임자에 대한 설명―이 인공지능 개발과 결정․운영하는 걸 어떻게 하는지에 대한 책임자에 대한 설명―이 있고 그다음에 어떤 결정이 내려지는지 사용된 데이터에 대한 설명을 해야 되고요. 그다음에 형평성에 대한 설명, 안정성과 정확성에 대한 설명, 영향에 대한 평가 이런 것들을 설명하게 되어 있어요. 하라고 되어 있습니다.
저는 다음과 네이버가 이런 것을 설명할 준비가 되어 있는지 또 내부 규범을 만들었는지 또 이런 것에 대한 설명을 요구할 수 있는 민간 차원에서의 어떤 공적 기구, 저는 정부가 하는 것은 또 다른 정치적 편향성을 야기할 수 있기 때문에 이러한 것들을 일단은 포털 스스로가 운영을 해야 되고 거기에는 굉장히 객관적인 분들을 참여시켜야 될 필요가 있지 않나 생각을 합니다.
그리고 또 하나 마지막으로 제가 드리고 싶은 것은 지금 김희정 참고인도 계시고 최재호 참고인도 계시는데, 포털이 AI 알고리즘이라는 것에 숨어서 책임을 지지 않으려고 하는 것 때문에 그러는 것 아니냐는 거예요. 미국 같은 경우에는 2019년에 알고리즘 책임법안도 나왔고 필터 버블 투명성 법안도 2019년에 발의가 됐어요. 이것은 결국 인공지능 뒤에서 고위험……
(발언시간 초과로 마이크 중단)
시스템의 경우에는 기업에게 책임을 요구하는 것…… 그러니까 어떤 기업에게 책임을 요구하겠습니까? 결국에는 포털에서 책임을 져야 되는 거지요. 기사가 허위 기사나 잘못된 기사가 나왔을 때 이걸 그냥 언론사에만 책임을 묻는 게 아니라 이것을 상위에 배치하고 대량으로 포털을 통해서, 플랫폼을 통해서 퍼져 가면 그것에 대해서 그 알고리즘을 운영한 포털이 책임을 져야 되는 것 아니겠어요?
그리고 두 번째는 필터 버블 투명성도 마찬가지지요. 사용자가 동의하지 않으면…… 이것은 아까 누가 말씀하셨나요, 최 박사님이 얘기해 주셨나요? 유럽의 개인정보법에 따르면 이것 굉장히 중요한 겁니다. 사실 이것 반드시 우리가 해야 되는 거예요. 개인정보법에서도 해야 되고 기업은 반드시 본인이 동의하지 않으면 더 이상 이것을 추적하거나 하지 않아야 됩니다. 그런 시스템을 포털이 갖춰 줘야 되고요. 우리가 EU하고, 개인정보법 이걸 우리가 지키지 않으면 더 이상 해외 진출도 어려워요, 잘 아시는 것처럼.
저는 두 분 참고인이 혹시 그 책임에 대한 문제에 대해서는 공감하시는지 듣고 싶습니다.

앞서 말씀드린 대로 저희가 부족한 부분은 이미 충분히 인지하고 있고요, 오늘 여러 가지 좋은 의견 많이 주셨기 때문에 앞으로도 저희는 계속 적극적으로 검토할 의향이 충분히 있습니다. 그리고 당연히 사회적 책임에 대해서는 충실히 임하고 또 계속해서 개선해 나갈 의지가 많이 있습니다.

마찬가지입니다.
수고하셨습니다.
다음, 박대출 위원님 질의해 주십시오.
다음, 박대출 위원님 질의해 주십시오.
진술인들 수고 많으십니다.
제가 질의답변 하는 과정을 이렇게 보니까 약간 진술인들 사이에서도 개념 자체가 좀 혼재된 게 아닌가 그런 생각이 듭니다.
첫째는 사람이 인위적으로 개입할 수 있느냐, 하느냐 이런 의문에 대해서는 할 수 있다 없다로 지금 답변이 나눠져 버리는 것 같아요.
이수영 교수님은 결국은 인간의 윤리 문제라 그러고 개입 문제를 말씀하셨지요. 그런데 카카오 김희정 실장님은 개입할 수 없다 그럽니다. 이게 말이지요 설계와 관리운영 문제, 관리운영상에 사람이 개입하지 못한다, 설계된 대로 움직인다라는 뜻으로 한 게 아닌가 싶고요. 설계까지도 같은 의미로 하신 겁니까?
제가 질의답변 하는 과정을 이렇게 보니까 약간 진술인들 사이에서도 개념 자체가 좀 혼재된 게 아닌가 그런 생각이 듭니다.
첫째는 사람이 인위적으로 개입할 수 있느냐, 하느냐 이런 의문에 대해서는 할 수 있다 없다로 지금 답변이 나눠져 버리는 것 같아요.
이수영 교수님은 결국은 인간의 윤리 문제라 그러고 개입 문제를 말씀하셨지요. 그런데 카카오 김희정 실장님은 개입할 수 없다 그럽니다. 이게 말이지요 설계와 관리운영 문제, 관리운영상에 사람이 개입하지 못한다, 설계된 대로 움직인다라는 뜻으로 한 게 아닌가 싶고요. 설계까지도 같은 의미로 하신 겁니까?

설계는 당연히 사람이 하고 있습니다.
설계는 사람이 해야 되는 거지요?

예.
그렇잖아요?

예, 중간중간에 개입을 하지 않는다는 의미……
그러면 이게 구분이 되어야 돼요, 사람이 개입하느냐 안 하느냐 문제로. 또 물론 그리고 관리운영에서 개입을 하느냐 안 하느냐를 별도로 따져야 될 문제이고, 그렇지요? 그렇게 되는 거지요?

예, 맞습니다.
그리고 공개 문제도 그런 것 같습니다. 이걸 그냥 내놓기만 하면 다 되는 걸로 생각해요. 여기에는 검증의 의미가 빠져 버려 있어요, 답변 중에서는. 공개한다는 의미에는 검증도 어떻게 할 것이냐는 실질적인 공개의 그런 목표를 달성하는 의미로 되어야 되는데 그냥 정부 산하기관에 던져 주면 이게 다 공개되는 거다, 다 끝난 거다라는 절차적인 의미로 해석해서도 안 되는 문제다.
그래서 오늘 공청회는 포털의 알고리즘 문제 말이지요 불완전성과 불안정성을 우리가 어떻게 해결할 것이냐 여기에 초점이 맞춰지기 위해서 오늘 공청회가 마련이 됐다라고 저는 생각을 합니다. 이런 숙제를 우리가 어떻게 풀 것이냐 이걸 논의하는 자리라고 보는 것이지요.
최재호 이사님하고 김희정 실장님께 제가 질의를 하겠습니다.
네이버가 3월에 여야에 알고리즘 검토위원회 구성을, 준비위원을 추천해 달라고 요청했지 않습니까, 그렇지요?
그래서 오늘 공청회는 포털의 알고리즘 문제 말이지요 불완전성과 불안정성을 우리가 어떻게 해결할 것이냐 여기에 초점이 맞춰지기 위해서 오늘 공청회가 마련이 됐다라고 저는 생각을 합니다. 이런 숙제를 우리가 어떻게 풀 것이냐 이걸 논의하는 자리라고 보는 것이지요.
최재호 이사님하고 김희정 실장님께 제가 질의를 하겠습니다.
네이버가 3월에 여야에 알고리즘 검토위원회 구성을, 준비위원을 추천해 달라고 요청했지 않습니까, 그렇지요?

예, 맞습니다.
우리 국민의힘 포털공정대책특위에서는 준비위원 후보자를 복수 추천자를 이미 받아 놓고 있습니다. 민주당은 지금 참여를 거부하고 있다던데 지금 그런 참여가 되고 있는 상황입니까?

아직까지 안 되어서 오늘 이 자리를 빌려서 양당 위원님들께 검토위 추천을 부탁드리기 위해 나왔습니다.
추천을 저희들은 준비되어 있습니다.
또 김희정 실장님, 지금 여야가 합의를 하면 카카오도 알고리즘 검증위원회 만들어 가지고 검증받을 수 있습니까?
또 김희정 실장님, 지금 여야가 합의를 하면 카카오도 알고리즘 검증위원회 만들어 가지고 검증받을 수 있습니까?

예, 합의해 주신다면 저희도 적극 검토하도록 하겠습니다.
받겠습니까?
그래서 민주당에 다시 한번 요청합니다. 알고리즘 검토위원회에 참여해서 검증부터 할 수 있도록 속도를 내 주시기 바랍니다.
김진욱 변호사님.
그래서 민주당에 다시 한번 요청합니다. 알고리즘 검토위원회에 참여해서 검증부터 할 수 있도록 속도를 내 주시기 바랍니다.
김진욱 변호사님.

예.
오늘 논란된 알고리즘 대부분 뉴스 알고리즘 가지고 지금 문제를 많이 다루고 있습니다. 그렇지요?

예.
그래서 지금 국민 실생활에는 또 쇼핑 알고리즘도 더 중요합니다. 그렇지요?

맞습니다.
그런데 지금 뉴스에만 매몰되어 있어 가지고 논의를 하는데, 알고리즘 검증 대상에 말이지요 이런 쇼핑 알고리즘도 포함이 되어야 된다고 보십니까? 어떻게 생각하시지요?

저도 위원님 의견에 전적으로 공감하고요.
사실 국민들의 실생활에 영향을 미친다고 하면 당연히 쇼핑 등 상품이나 서비스 제공과 관련된 영역이 더 중요하다고 생각이 되고요. 오늘 논의에서 대부분 정치적으로 유․불리가 나누어지는 뉴스 제공과 관련된 부분에서만 말씀을 하시는데 사실상 포털의 수익 구조를 봤을 때는 뉴스 등을 통해서 이용자들을 유입시키고 그것을 통해서 머물고 있는 이용자들에게 쇼핑 등을 통해서 또 그런 것을 통해서 광고도 유치하고, 포털의 어떤 수익 구조와 직결되는 것은 쇼핑 등 영역이기 때문에 그 부분에 대해서 이번에 법안 논의하실 때 꼭 뉴스뿐만 아니라 다른 영역에서의 알고리즘도 반드시 공개 등 검증 대상에 포함되어야 된다라고 말씀드리겠습니다.
사실 국민들의 실생활에 영향을 미친다고 하면 당연히 쇼핑 등 상품이나 서비스 제공과 관련된 영역이 더 중요하다고 생각이 되고요. 오늘 논의에서 대부분 정치적으로 유․불리가 나누어지는 뉴스 제공과 관련된 부분에서만 말씀을 하시는데 사실상 포털의 수익 구조를 봤을 때는 뉴스 등을 통해서 이용자들을 유입시키고 그것을 통해서 머물고 있는 이용자들에게 쇼핑 등을 통해서 또 그런 것을 통해서 광고도 유치하고, 포털의 어떤 수익 구조와 직결되는 것은 쇼핑 등 영역이기 때문에 그 부분에 대해서 이번에 법안 논의하실 때 꼭 뉴스뿐만 아니라 다른 영역에서의 알고리즘도 반드시 공개 등 검증 대상에 포함되어야 된다라고 말씀드리겠습니다.
쇼핑 알고리즘 피해는 직접 국민에게 직결되는 문제다, 그렇지요?

맞습니다.
국민에게 의도되지 않은 상품을 구매하게 한다거나 의도된 왜곡된 정보를 흘린다거나 그런 사례가 있을 수 있지 않습니까?

예, 또 추가로 말씀드리면 쇼핑 검색을 직접 하는 이용자들뿐만 아니라 각 포털에 입점해 있는 업체들 간에도 본인들이 내고 있는 어떤 광고비 등등 비용에 충분히 상응하는 이용자들에게 노출 제공이 되고 있는지에 대한 불만들도 상당히 있는 상황이기 때문에 그런 부분들이 이번 법안을 통해서 해결되었으면 하는 바람입니다.
이수영 교수님.

예.
이수영 교수님, 아까 제가 모두에도 말씀드렸지만 ‘인간의 윤리 문제이다. 인공지능 윤리 문제가 아니다. 인공지능이 사람만큼 안전하기도 하고 위험하기도 하다’는 말씀에 저도 공감을 합니다. 누가 관리하느냐에 따라서 편향성 문제를 또 낳을 수도 있는 것이고.
지금 알고리즘 내용을 정부에 의무적으로 제출하는데, 정부 산하기관에 제출한다고 하는 것 또 역시 코드 논란이라든지 이런 정치적 편향성의 문제로 해 가지고 공정성 논란은 나올 수밖에 없는 현실적인 상황이 있지 않습니까, 그렇지요? 그런 부분이 있다라고 보시는 거지요?
지금 알고리즘 내용을 정부에 의무적으로 제출하는데, 정부 산하기관에 제출한다고 하는 것 또 역시 코드 논란이라든지 이런 정치적 편향성의 문제로 해 가지고 공정성 논란은 나올 수밖에 없는 현실적인 상황이 있지 않습니까, 그렇지요? 그런 부분이 있다라고 보시는 거지요?

검증을 누가 하느냐인데 결국은 어느 한 정부든 생산자든 소비자 다 모여서 같이할 수 있는……
제가 잠깐만 질의드릴게요, 답변 주시지요.
그래서 편향성 문제를 두고 검증 기준과 방식이 중요하다라고 보거든요. 그래서 그것에 대해서 의견을 말씀해 주시지요.
그래서 편향성 문제를 두고 검증 기준과 방식이 중요하다라고 보거든요. 그래서 그것에 대해서 의견을 말씀해 주시지요.

검증 방법은 결국은 사람들이 합의할 수 있느냐, 사회적으로 합의가 되느냐가 문제이고요. 다만 거기서 중요한 게 소비자의 선택권을 어느 정도까지 보장해 주느냐하고 사회에서 요구하는 바람직한 형태하고가 어떻게 트레이드오프(trade off)가 이루어질 거냐가 상당히 합의가 필요한 요소라고 생각합니다.
수고하셨습니다.
다음, 박성중 간사님 질의해 주십시오.
다음, 박성중 간사님 질의해 주십시오.
국민의힘 간사 박성중 위원입니다.
질의를 시작하기에 앞서 오늘 공청회가 왜 열리게 되었는지 한마디 짚어 가겠습니다.
저기 화면에서 뜰 겁니다.
(영상자료를 보며)
작년 9월 8일 날 저희 주호영 원내대표가 교섭단체대표연설을 했는데 이것이 카카오 포털 사이트 메인 화면에 떴습니다. 그러다 보니까 윤영찬 위원이 ‘카카오 너무하군요. 들어오라고 하세요’하고 메시지를 발송해서 이게 상당히 알고리즘이 개인에 어떤 영향을 미친다 이런 차원에서 그때 문제가 됐고, 당 대표도 사과하고 본인도 사과했습니다.
그런데 저희들은 사․보임을 요청했고 징계도 요청했지만 국회가 받아들이지 않아서 지금 이렇게 가고 있습니다마는 작년 10월 29일 날 간사회의를 통해서 앞으로 이 알고리즘을 조금 중립적으로 하자 이런 차원에서 공청회를 갖게 하고 오늘 이렇게 됐다는 것을 다시 한번 언급합니다.
질의에 들어가겠습니다.
김진욱 변호사님.
질의를 시작하기에 앞서 오늘 공청회가 왜 열리게 되었는지 한마디 짚어 가겠습니다.
저기 화면에서 뜰 겁니다.
(영상자료를 보며)
작년 9월 8일 날 저희 주호영 원내대표가 교섭단체대표연설을 했는데 이것이 카카오 포털 사이트 메인 화면에 떴습니다. 그러다 보니까 윤영찬 위원이 ‘카카오 너무하군요. 들어오라고 하세요’하고 메시지를 발송해서 이게 상당히 알고리즘이 개인에 어떤 영향을 미친다 이런 차원에서 그때 문제가 됐고, 당 대표도 사과하고 본인도 사과했습니다.
그런데 저희들은 사․보임을 요청했고 징계도 요청했지만 국회가 받아들이지 않아서 지금 이렇게 가고 있습니다마는 작년 10월 29일 날 간사회의를 통해서 앞으로 이 알고리즘을 조금 중립적으로 하자 이런 차원에서 공청회를 갖게 하고 오늘 이렇게 됐다는 것을 다시 한번 언급합니다.
질의에 들어가겠습니다.
김진욱 변호사님.

예.
네이버나 다음 이런 포털은 AI 알고리즘을 통해서 검색이라든지 기사 배열을 하기 때문에 공정하다고 주장을 계속하고 있습니다. AI 알고리즘이 중립적이라고 할 수 없지요?

중립성이 의심받을 만한 상황들이 그간에 계속 연출이 되었던 것으로 알고 있습니다.
우리 변호사님이나 전문가들뿐만 아니라 내부 전문가들도 굉장히 우려를 표명하고 있습니다.
다음의 창업자 이재웅 대표는 페이스북을 통해서 이렇게 했습니다. ‘국회의원이 마음에 안 드는 뉴스가 메인에 올라왔다고 바로 포털 담당자를 불러서 강력히 항의하는 것은 문제가 있다고 생각한다. 규칙 기반의 AI는 그 시스템을 설계하는 사람의 생각이 반영될 수밖에 없다’ 이렇게 내부에서도 이런 이야기를 하고 있습니다. 만약 이게 전혀 그렇지 않다면 왜 윤영찬 위원이 뉴스 배열 마음에 안 든다고 카카오를 들어오라고 하겠습니까?
AI 알고리즘 자체가 개발자가 개입하고 여러 가지 운영에도 충분히 할 수 있다, 윤영찬 위원이 그 부사장 출신인데 모를 리가 있겠느냐 이런 차원에서 저희들은 그것을 보고 있는 것입니다.
이수영 교수님.
다음의 창업자 이재웅 대표는 페이스북을 통해서 이렇게 했습니다. ‘국회의원이 마음에 안 드는 뉴스가 메인에 올라왔다고 바로 포털 담당자를 불러서 강력히 항의하는 것은 문제가 있다고 생각한다. 규칙 기반의 AI는 그 시스템을 설계하는 사람의 생각이 반영될 수밖에 없다’ 이렇게 내부에서도 이런 이야기를 하고 있습니다. 만약 이게 전혀 그렇지 않다면 왜 윤영찬 위원이 뉴스 배열 마음에 안 든다고 카카오를 들어오라고 하겠습니까?
AI 알고리즘 자체가 개발자가 개입하고 여러 가지 운영에도 충분히 할 수 있다, 윤영찬 위원이 그 부사장 출신인데 모를 리가 있겠느냐 이런 차원에서 저희들은 그것을 보고 있는 것입니다.
이수영 교수님.

예.
AI 알고리즘에 의한 뉴스 배열에 사람이 개입할 수 없다면 네이버 부사장 윤영찬 위원이 카카오를 부를 이유도 없었겠지요, 역으로 물어서?

저는 그것에 대해서는 잘 모릅니다.
모릅니까? 예, 그냥 넘어가겠습니다.
국회법 48조에 의하면 ‘공정을 기할 수 없는 뚜렷한 사유가 인정될 때는 상임위원으로 선임할 수 없다’ 이래서 사실 저희들이 했는데 지금 계속 같은 과방위 위원으로 하고 있습니다, 청와대와 민주당의 어떤 비호가 있었다.
저는 이걸 강조하는 것이 아니고요.
최재호 이사님, 김희정 실장님.
국회법 48조에 의하면 ‘공정을 기할 수 없는 뚜렷한 사유가 인정될 때는 상임위원으로 선임할 수 없다’ 이래서 사실 저희들이 했는데 지금 계속 같은 과방위 위원으로 하고 있습니다, 청와대와 민주당의 어떤 비호가 있었다.
저는 이걸 강조하는 것이 아니고요.
최재호 이사님, 김희정 실장님.

예.

예.
최근에 청와대가 인사 내정자를 발표했습니다, 지난 3월 2일. 청와대 디지털소통센터장에 고주희 전 네이버 뉴스제휴팀장이 내정됐지요, 최재호 이사님?

저는 몰랐습니다.
몰랐습니까?

예.
김희정 실장님, 초대 디지털소통센터장에는 카카오 부사장 출신 정혜승 씨가 되었었지요?

예, 되었지만 제가 잘 아시는 분은 아닙니다.
윤영찬 위원도 네이버 부사장 출신으로 국민소통수석까지, 그 위의 수석까지 했고요.
이렇게 연달아서 포털 뉴스 출신 또 포털 대외담당 출신들이 청와대 고위공직자로 선임되는 사실만 보더라도 여당과 청와대가 포털과 모종의 유착관계가, 또 포털 길들이기에 관여하고 있다 이렇게 저희들은 생각할 수밖에 없다, 국민들도 그렇게 볼 수밖에 없다, 그래서 알고리즘을 아무리 중립적으로 만들려 해도 상당히 무용지물의 어떤 가능성이 크다 저희들은 우려하고 있습니다.
지난 2017년 20대 국정감사에서 제가 이해진 네이버 GIO 의장을 끈질기게 물고 늘어졌습니다. 그때 네이버 의장님께서는 이런 말을 했습니다. ‘네이버 알고리즘의 중립성과 외부 검증 및 통제를 받겠다’ 이렇게 발언했습니다. 그리고 그 이후에 2018년에 바로 뉴스 알고리즘 검토위원회가 발족됐는데 소스코드도 공개 안 하고 여러 가지 내부 어떤 기술 문서에 의존하는 등 여러 가지 한계가 있습니다, 또 구체적인 것도 공개하지 않고.
김진욱 변호사님.
이렇게 연달아서 포털 뉴스 출신 또 포털 대외담당 출신들이 청와대 고위공직자로 선임되는 사실만 보더라도 여당과 청와대가 포털과 모종의 유착관계가, 또 포털 길들이기에 관여하고 있다 이렇게 저희들은 생각할 수밖에 없다, 국민들도 그렇게 볼 수밖에 없다, 그래서 알고리즘을 아무리 중립적으로 만들려 해도 상당히 무용지물의 어떤 가능성이 크다 저희들은 우려하고 있습니다.
지난 2017년 20대 국정감사에서 제가 이해진 네이버 GIO 의장을 끈질기게 물고 늘어졌습니다. 그때 네이버 의장님께서는 이런 말을 했습니다. ‘네이버 알고리즘의 중립성과 외부 검증 및 통제를 받겠다’ 이렇게 발언했습니다. 그리고 그 이후에 2018년에 바로 뉴스 알고리즘 검토위원회가 발족됐는데 소스코드도 공개 안 하고 여러 가지 내부 어떤 기술 문서에 의존하는 등 여러 가지 한계가 있습니다, 또 구체적인 것도 공개하지 않고.
김진욱 변호사님.

예.
혹시 밖에서 지켜보는데 네이버에서 준비 중인 검토위원회가 실효성 있다고 보십니까?

아직까지 지금 운영된 지 얼마 안 됐기 때문에 실효성이 있는지 없는지에 대해서 단정 짓기는 어렵지만 충분한 시간을 가지고서, 지금 현재 진행되고 있는 검증위원회로는 아무래도 한계가 있을 수밖에 없다고 생각되고요.
알겠습니다.
전국언론노동조합 김동원 실장님.
전국언론노동조합 김동원 실장님.

예.
선거가 끝나면 포털의 뉴스 배열이 도마에 많이 오릅니다. 이번 4월 7일 재보궐선거에서도 여당인 민주당이 그동안 부동산 폭등이라든지 세금 폭탄이라든지 전세 난민 이런 수많은 실정에 대해 국민의 비판을 많이 받았는데요. 끝나고 나니 대표적 좌편향 방송인 김어준 씨가 선거 패배 원인이 편향적 포털 기사 배열에 있다고 말을 한마디 하니까 민주 여당이건 청와대건 난리가 나 벌떼처럼 지금 달려들고 있습니다.
선거가 끝나면 반복되는 포털의 기사 배열 편향성 문제의 가장 큰 원인은 뭐라고 보십니까, 아까 몇 가지 이야기를 하던데?
선거가 끝나면 반복되는 포털의 기사 배열 편향성 문제의 가장 큰 원인은 뭐라고 보십니까, 아까 몇 가지 이야기를 하던데?

포털의 뉴스 편향성이라는 것은 말씀드렸던 것처럼 알고리즘이 기계어로서 가질 수밖에 없는 한계가 분명히 있습니다. 그리고 거기에 아까 홍익표 위원님이 잘 지적하셨던 것처럼 네이버의 알고리즘에 대응하는 각 언론사들의 대응능력……
알겠습니다. 복잡하면 길어지니까요.
(발언시간 초과로 마이크 중단)
(마이크 중단 이후 계속 발언한 부분)
간단히 말씀드리면 네이버라든지 카카오도 마찬가지고, 구글은 13개 뉴스 랭킹 알고리즘을 공개하는데 우리는 겨우 3개 추상적인 공개하고 있습니다.
그리고 여러 가지 어떤 알고리즘 검토위원회 내부 회의록 자체를 공개하지 않으면 우리한테 와서 직접 한번 보여 달라고 했는데 전혀 되지를 않고 있습니다. 이제 여야 위원 추천을 우리가 강력히 요구해 가지고 받아들이고 있으나 여당이 거기 협조를 잘 안 하고 있고요.
세 번째는 조금만 공개 이야기하면 기업 비밀이라는 이런 이름으로 숨어가고 있습니다.
마지막으로 한 가지만 더 질문하겠습니다.
이것은 이수영 교수님하고 최경진 교수님한테 묻겠습니다.
최근 정부에 포털 알고리즘을 제출하라는 목소리가 많이 있습니다. 검증은 필요하지만 정부에 제출하라든지 검증을 받으라고 하는 것은 검열과 마찬가지라고 생각하는데 어떻게 생각하십니까?
우선 이수영 교수님, 다른 나라에 이렇게 정부에 제출하는 나라가 있는지……
(발언시간 초과로 마이크 중단)
간단히 말씀드리면 네이버라든지 카카오도 마찬가지고, 구글은 13개 뉴스 랭킹 알고리즘을 공개하는데 우리는 겨우 3개 추상적인 공개하고 있습니다.
그리고 여러 가지 어떤 알고리즘 검토위원회 내부 회의록 자체를 공개하지 않으면 우리한테 와서 직접 한번 보여 달라고 했는데 전혀 되지를 않고 있습니다. 이제 여야 위원 추천을 우리가 강력히 요구해 가지고 받아들이고 있으나 여당이 거기 협조를 잘 안 하고 있고요.
세 번째는 조금만 공개 이야기하면 기업 비밀이라는 이런 이름으로 숨어가고 있습니다.
마지막으로 한 가지만 더 질문하겠습니다.
이것은 이수영 교수님하고 최경진 교수님한테 묻겠습니다.
최근 정부에 포털 알고리즘을 제출하라는 목소리가 많이 있습니다. 검증은 필요하지만 정부에 제출하라든지 검증을 받으라고 하는 것은 검열과 마찬가지라고 생각하는데 어떻게 생각하십니까?
우선 이수영 교수님, 다른 나라에 이렇게 정부에 제출하는 나라가 있는지……

잘 모르겠습니다.
그리고 제 개인 의견은 사용자단체․개발자․정부 같이 모여서 검토․검증했으면 좋겠습니다.
그리고 제 개인 의견은 사용자단체․개발자․정부 같이 모여서 검토․검증했으면 좋겠습니다.
최경진 교수님.

검증하고자 하는 대상이 무언지랑 범위․절차가 되게 중요한 것 같고요. 그다음에 사실은 누가 주체가 되느냐보다 거기에 어떤 사람들이 참여하고 얼마나 독립성과 중립성이 확보되느냐가 훨씬 더 중요하다고 생각됩니다.
알겠습니다.
수고하셨습니다.
다음, 조승래 위원님.
다음, 조승래 위원님.
더불어민주당 간사 조승래입니다.
진술인 네 분하고 참고인 고생 많으십니다.
항상 편향성 시비가 있는데 아까도 논란 있었습니다만 특정 포털에 계시던 분들이 청와대나 고위직에 진출한 것은 그렇게 또 의심할 수도 있지만 또 한편으로 얘기하면 디지털 커뮤니케이션과 관련해서 전문성을 가지고 계신 분들이 정부에서 일하는 것도 사실은 또 권장할 만한 일입니다. 저는 그렇게 보고 있습니다. 그래서 그것은 비단 문재인 정부뿐만 아니라 그전에 이명박 정부나 박근혜정부에서도 그런 인선들이 있었다고 저는 그렇게 알고 있습니다.
그리고 또 하나, 실제로 어느 정당에서는 막 포털 사업자를 찾아가서 항의하고, 항의 방문까지 하지 않았습니까? 그것은 편향되고 문제가 있다라는 문제 제기를 하기 위해서 항의 방문까지 하고 그렇게 했습니다. 그것도 좀 한번 잘 살펴보실 필요가 있다고 생각하고 있습니다. 이것은 이렇게 말씀드리고요.
어느 분한테 질문드릴까요. 이 교수님께 여쭤보는 게 좋겠습니다.
뉴스가 됐든 아니면 이러저런 홈쇼핑과 관련된 것이 됐든 알고리즘 문제 이것을 기술적 이슈로 보고 계십니까, 아니면 윤리적인 이슈로 보고 계십니까?
진술인 네 분하고 참고인 고생 많으십니다.
항상 편향성 시비가 있는데 아까도 논란 있었습니다만 특정 포털에 계시던 분들이 청와대나 고위직에 진출한 것은 그렇게 또 의심할 수도 있지만 또 한편으로 얘기하면 디지털 커뮤니케이션과 관련해서 전문성을 가지고 계신 분들이 정부에서 일하는 것도 사실은 또 권장할 만한 일입니다. 저는 그렇게 보고 있습니다. 그래서 그것은 비단 문재인 정부뿐만 아니라 그전에 이명박 정부나 박근혜정부에서도 그런 인선들이 있었다고 저는 그렇게 알고 있습니다.
그리고 또 하나, 실제로 어느 정당에서는 막 포털 사업자를 찾아가서 항의하고, 항의 방문까지 하지 않았습니까? 그것은 편향되고 문제가 있다라는 문제 제기를 하기 위해서 항의 방문까지 하고 그렇게 했습니다. 그것도 좀 한번 잘 살펴보실 필요가 있다고 생각하고 있습니다. 이것은 이렇게 말씀드리고요.
어느 분한테 질문드릴까요. 이 교수님께 여쭤보는 게 좋겠습니다.
뉴스가 됐든 아니면 이러저런 홈쇼핑과 관련된 것이 됐든 알고리즘 문제 이것을 기술적 이슈로 보고 계십니까, 아니면 윤리적인 이슈로 보고 계십니까?

윤리적인 이슈와 기술적인 이슈가 다 있는데 기술적인 이슈는 연구개발자가 하려고 노력을 하고 있고 할 겁니다. 그렇지만 윤리적 이슈는 사회적인 합의하에서만 가능하지 저희 엔지니어가 할 수 있는 일은 아니라고 생각합니다.
그렇다면 기술적인 이슈는 당연히 이제, 윤리적 이슈가 정리가 되면 그에 따른 기술적 이슈는 해결이 가능할 것이라고 보시는 거지요?

그게 늘 엔지니어의 목표입니다.
그렇지요? 그러면 지금 우리가 여기서 논의해야 될 부분들은 그런 편향성 시비가 됐든 어쨌든 알고리즘에 대한 문제 제기에 대해서 윤리적 기준이나 그것을 검증하기 위한 절차나 과정들을 잘 합의를 해내고 그 합의에 따라서 알고리즘을 설계하게 하는 것 그것이 목표다 이렇게 보면 이해가 되는 겁니까?

예, 맞습니다.
예, 알겠습니다.
그렇다면 우리가 알고리즘이라는 것은, 또 AI라는 것은 이게 어쨌든 학습을 통해서 계속 진화가 되지 않습니까? 그런데 학습의 과정이라는 것이 어떤 것을 학습시킬 것이냐의 문제가 남는 것인데 그러면 여기서 예를 들면 AI라는 하나의 수단이 있고 그 수단을 운영하는 포털 같은 플랫폼이 있고 그것을 이용하는 이용자가 있습니다.
자, 그러면 그 학습정보를 서로 교류를 하는 데 있어서 학습정보를 개인에 기반해야 되는 것이 아니냐, 그런데 지금은 사람들이 의심을 하는 것은 뭐냐 하면 그 과정에서 포털 사업자가 AI 관련된 일종의 학습 알고리즘을 특정한 방향으로 설곗값이 주어지기 때문에 이용자인 개인하고 AI하고의 학습 교류 과정을 통해서 뭔가 축적되는 과정들에 문제가 발생하는 것이 아니냐 이런 의심이 있는 거거든요.
혹시 이 부분에 대해서는 누가 기술적으로 어떤 방향이 옳은 것인지 좀 말씀해 주실 분 계십니까?
그렇다면 우리가 알고리즘이라는 것은, 또 AI라는 것은 이게 어쨌든 학습을 통해서 계속 진화가 되지 않습니까? 그런데 학습의 과정이라는 것이 어떤 것을 학습시킬 것이냐의 문제가 남는 것인데 그러면 여기서 예를 들면 AI라는 하나의 수단이 있고 그 수단을 운영하는 포털 같은 플랫폼이 있고 그것을 이용하는 이용자가 있습니다.
자, 그러면 그 학습정보를 서로 교류를 하는 데 있어서 학습정보를 개인에 기반해야 되는 것이 아니냐, 그런데 지금은 사람들이 의심을 하는 것은 뭐냐 하면 그 과정에서 포털 사업자가 AI 관련된 일종의 학습 알고리즘을 특정한 방향으로 설곗값이 주어지기 때문에 이용자인 개인하고 AI하고의 학습 교류 과정을 통해서 뭔가 축적되는 과정들에 문제가 발생하는 것이 아니냐 이런 의심이 있는 거거든요.
혹시 이 부분에 대해서는 누가 기술적으로 어떤 방향이 옳은 것인지 좀 말씀해 주실 분 계십니까?

어떤 질문이신지 정확하지는 않지만 일반적으로 학습 알고리즘이라는 것은 이 AI를 어떤 목적으로 쓰겠소, 예를 들어서 추천 서비스를 한다면 목적이 사용자가 자기가 원하는 결과를 더 빨리 얻을 수 있게, 사용자가 원하는 결과를 우선순위로 보여 주는 것이 추천 알고리즘의 목표라고 생각을 하는데 그게 타당하느냐 아니면 사회적으로 다른 요건까지 일반 공정성이나 편향성까지 하는 목표를 같이 세우느냐가 중요한 목표가 될 거고요.
그것을 하기 위해서 어떤 식으로 데이터를 수집을 하고 그 수집된 데이터를 어떤 식으로 정리해서 정제를 해야 됩니다. 무조건 로데이터(rawdata)를 쓰기보다는 거기서 불필요한 것들을 걸러내는, 선택하는 작업이 필요할 수가 있기 때문에 어떤 기준으로 할 거냐 하는 것을 정리하는 게 중요하다고 봅니다.
그것을 하기 위해서 어떤 식으로 데이터를 수집을 하고 그 수집된 데이터를 어떤 식으로 정리해서 정제를 해야 됩니다. 무조건 로데이터(rawdata)를 쓰기보다는 거기서 불필요한 것들을 걸러내는, 선택하는 작업이 필요할 수가 있기 때문에 어떤 기준으로 할 거냐 하는 것을 정리하는 게 중요하다고 봅니다.
예, 알겠습니다.
그리고 아까 네이버에서 알고리즘검토위원회와 관련된 말씀을 하셔서 민주당이 추천을 안 하셨다고 하셨는데, 그런데 우리가 왜 추천해야 되는지 모르겠어요. 우리가 반드시 추천을 해야 되는 겁니까?
저는 이렇게 생각합니다. 특히 뉴스 기사와 관련해서 정치권이 검증위원회에 들어가서 그 자리에서 정치적 공방을 하고 이게 정치적으로 편향됐네, 그렇지 않네라고 시비하고 다툼을 하는 것이 그게 의미가 있는 것이냐, 우리들은 근본적인 그런 질문을 갖고 있습니다.
그런데 이런 것에 대해서 저희들이 의견을 내는 것이지 우리가 왜 네이버의 알고리즘검증위원회에 사람을 보내 드려야 되는 거지요?
그것 한번 답변을 해 줘 보세요.
그리고 아까 네이버에서 알고리즘검토위원회와 관련된 말씀을 하셔서 민주당이 추천을 안 하셨다고 하셨는데, 그런데 우리가 왜 추천해야 되는지 모르겠어요. 우리가 반드시 추천을 해야 되는 겁니까?
저는 이렇게 생각합니다. 특히 뉴스 기사와 관련해서 정치권이 검증위원회에 들어가서 그 자리에서 정치적 공방을 하고 이게 정치적으로 편향됐네, 그렇지 않네라고 시비하고 다툼을 하는 것이 그게 의미가 있는 것이냐, 우리들은 근본적인 그런 질문을 갖고 있습니다.
그런데 이런 것에 대해서 저희들이 의견을 내는 것이지 우리가 왜 네이버의 알고리즘검증위원회에 사람을 보내 드려야 되는 거지요?
그것 한번 답변을 해 줘 보세요.

존경하는 위원님 말씀처럼 오늘 여러 좋은 말씀들을 통해서 저희가 느낀 바로는 안에서만 알고리즘을 만들기 때문에 밖에서 걱정들을 많이 하시는 거라고 단순하게 표현할 수 있을 것 같습니다.
그래서 저희가 이렇게 알고리즘 만드는 과정들이나 교수님께서 말씀해 주신 어떤 데이터 학습 샘플링 방법이나 학습 방법 그리고 목적 함수라든가 저희가 어떤 걸 타깃으로 하고 학습하는지에 대한 전체적인 과정들에 대해서 사실 이미 3년 전에 그런 알고리즘 검토위를 통해서 저희가 거의 몇 개월에 걸쳐서 교수님들과 굉장히 오랜 토의와 어떤 그런 피드백을 통해서 얘기를 한 경험이 있습니다.
그래서 저희가 이번에 한 번 더, 더 넓은 범위에서의 교수님들 풀을 넓혀서 아까 교수님 말씀하신 것처럼 다양한 분야의 의견들을 듣기 위해서 진행을 하려고 하는 것이라고 봐 주시면 좋을 것 같습니다.
그래서 저희가 이렇게 알고리즘 만드는 과정들이나 교수님께서 말씀해 주신 어떤 데이터 학습 샘플링 방법이나 학습 방법 그리고 목적 함수라든가 저희가 어떤 걸 타깃으로 하고 학습하는지에 대한 전체적인 과정들에 대해서 사실 이미 3년 전에 그런 알고리즘 검토위를 통해서 저희가 거의 몇 개월에 걸쳐서 교수님들과 굉장히 오랜 토의와 어떤 그런 피드백을 통해서 얘기를 한 경험이 있습니다.
그래서 저희가 이번에 한 번 더, 더 넓은 범위에서의 교수님들 풀을 넓혀서 아까 교수님 말씀하신 것처럼 다양한 분야의 의견들을 듣기 위해서 진행을 하려고 하는 것이라고 봐 주시면 좋을 것 같습니다.
정치권이 참여를 하면 정치적 편향에 대한 여러 가지 완충작용 혹은 거름장치가 만들어질 거라고 생각할 수 있지만 저는 그렇게 생각하지 않습니다. 제가 아까 이 교수님한테 질문했던 것처럼 이게 윤리적인 문제가 정리가 된다면 나머지는 기술적인 문제로 접근하는 게 맞는 건데 윤리와 기술을 자꾸 섞어 버리면 오히려 더 혼란스럽다라는 것을 제가 말씀드리는 겁니다.
그런 의미에서 물론 저희들이 한 번 더 검토하겠습니다만 저희들은 오히려 검증위원회나 검토위원회는 정말로 철저하게 기술적인 문제로 접근하는 것이 맞다, 그렇기 때문에 정치권에서 사람들이 가서 그 문제에 대해서 들여다볼 이유가 없다고 보는 것이고 오히려 철저하게 객관적이고 정말로 실력 있는 기술자들 혹은 전문가들을 많이 포함시켜서 그것을 정말로 네이버나 다음 쪽에서 자기들의 일종의 기술적 치부를 좀 드러내는 한이 있더라도 오히려 과감하게 하시는 게 맞다 저희들은 그렇게 생각하고 있습니다.
이상입니다.
그런 의미에서 물론 저희들이 한 번 더 검토하겠습니다만 저희들은 오히려 검증위원회나 검토위원회는 정말로 철저하게 기술적인 문제로 접근하는 것이 맞다, 그렇기 때문에 정치권에서 사람들이 가서 그 문제에 대해서 들여다볼 이유가 없다고 보는 것이고 오히려 철저하게 객관적이고 정말로 실력 있는 기술자들 혹은 전문가들을 많이 포함시켜서 그것을 정말로 네이버나 다음 쪽에서 자기들의 일종의 기술적 치부를 좀 드러내는 한이 있더라도 오히려 과감하게 하시는 게 맞다 저희들은 그렇게 생각하고 있습니다.
이상입니다.
더 이상 토론……
짧게 한 2분만 주시면……
뭘, 끝났는데……
한번 드리세요.
예, 하겠습니다.
죄송합니다.
이수영 교수님이 아까 냉장고에게는 윤리를 묻지 않는데 AI에는 윤리를 묻는다라는 말씀은 아마 이런 것 같아요. 왜냐하면 냉장고가 문제를 일으켰을 때 제조사가 책임을 인정하지요?
죄송합니다.
이수영 교수님이 아까 냉장고에게는 윤리를 묻지 않는데 AI에는 윤리를 묻는다라는 말씀은 아마 이런 것 같아요. 왜냐하면 냉장고가 문제를 일으켰을 때 제조사가 책임을 인정하지요?

예.
그러나 지금 문제는 포털이 알고리즘에 문제가 생겼을 때 ‘나는 모르는 일이야, 이건 AI가 알고리즘에 따라서 한 것이기 때문에 나는 책임질 일이 없다’라고 하기 때문에 이게 문제가 되는 거라고 생각을 합니다. 아마 그 지점을 지금 이수영 교수님께서 얘기하신 거고요.
결국은 이 문제에 대해서는 독점적 지위를 가지고 있는 플랫폼 사업자들께서 이 부분에 대해서는 책임을 인정하고 개선해야 될 의지를 가져야 된다고 생각을 합니다.
그리고 아마 오늘 나온 진술인들께서 얘기하신 거는 그렇다고 해서 정부가 주도적으로 해서 또는 정치권이 주도적으로 해서 이것을 뭔가 규제하거나 감독하는 것은 또 다른 편향성을 야기할 수 있기 때문에 그것보다는 좀 더 다양한 주체로 구성된 포털의 중립성, 포털의 독과점 그리고 지금 포털에서 나오고 있는 여러 가지……
중요한 것은 사실은 아까 김진욱 변호사님도 얘기했지만 정치권이니까 자꾸 기사 문제, 정치적 중립성만 얘기하는데 실제로는 사실은 이게 자본의 중립성이 더 중요한 문제라고 생각되는데 그에 따른 시민사회나 또는 소비자주권단체 등등이 함께하는 거버넌스 구성이 필요하지 않을까 생각을 하는데요. 혹시 그 거버넌스 구성에 대한 안이 있으시면 설명해 주실 분 있으면 좀 설명을 해 주셨으면 좋겠습니다, 어떻게 구성하면 좋을지에 대해서.
김진욱 변호사님이나 아니면 김동원……
결국은 이 문제에 대해서는 독점적 지위를 가지고 있는 플랫폼 사업자들께서 이 부분에 대해서는 책임을 인정하고 개선해야 될 의지를 가져야 된다고 생각을 합니다.
그리고 아마 오늘 나온 진술인들께서 얘기하신 거는 그렇다고 해서 정부가 주도적으로 해서 또는 정치권이 주도적으로 해서 이것을 뭔가 규제하거나 감독하는 것은 또 다른 편향성을 야기할 수 있기 때문에 그것보다는 좀 더 다양한 주체로 구성된 포털의 중립성, 포털의 독과점 그리고 지금 포털에서 나오고 있는 여러 가지……
중요한 것은 사실은 아까 김진욱 변호사님도 얘기했지만 정치권이니까 자꾸 기사 문제, 정치적 중립성만 얘기하는데 실제로는 사실은 이게 자본의 중립성이 더 중요한 문제라고 생각되는데 그에 따른 시민사회나 또는 소비자주권단체 등등이 함께하는 거버넌스 구성이 필요하지 않을까 생각을 하는데요. 혹시 그 거버넌스 구성에 대한 안이 있으시면 설명해 주실 분 있으면 좀 설명을 해 주셨으면 좋겠습니다, 어떻게 구성하면 좋을지에 대해서.
김진욱 변호사님이나 아니면 김동원……

그거는 우리 김 변호사님이 해 주셔야 될 것은데, 엔지니어가 할 이야기 아닌 것 같습니다.

위원님 말씀처럼 실제 이용자 그리고 각 포털사의 어떤 서비스 제공의 협력 내지는 포털을 이용하는 다른 영세사업자들이라든지 기업들도 함께 들어가서 지금 포털에서 제공되고 있는 검색 서비스가 얼마나 투명한지 또 우리가 신뢰할 수 있는지를 실제 이용자들이 확인할 수 있는 방향으로 구성이 되어야 되지 않을까 싶습니다.
김동원 실장님.

지금 현재 포털이 상시적으로 운영하고 있는 게 뉴스제휴평가위원회인데 그 뉴스제휴평가위원회의 역할은 굉장히 제한적이라고 봅니다.
제가 가장 의아해했던 것은 외국에서는 구글이나 페이스북 같은 경우에도 퓨 리서치 센터나 나이트 재단 같은 경우가 이용자들에 대한 평가보고서를 합니다.
그런데 저희는 포털이 언제나 이용자를 우선으로 한다고 말을 하지만 한 번도 이용자들로부터 뉴스 서비스의 품질에 대한 평가를 받아 본 적이 있는지가 궁금합니다. 그래서 그런 식의 평가가 우선 되어야 된다고 보고요.
그다음에 그런 문제를 개선하기 위한 알고리즘 개선으로 들어가야지 말씀하신 것처럼 정치적인 어떤 공정성이나 이런 것들보다는 이용자의 다양성을 반영할 수 있는 그러한 이용자위원회 같은 것들이 한 사가 아니라 포털사업자 다 통합해서 운영할 수 있도록 그런 평가와 제안을 하는 그런 위원회가 필요하다고 봅니다.
제가 가장 의아해했던 것은 외국에서는 구글이나 페이스북 같은 경우에도 퓨 리서치 센터나 나이트 재단 같은 경우가 이용자들에 대한 평가보고서를 합니다.
그런데 저희는 포털이 언제나 이용자를 우선으로 한다고 말을 하지만 한 번도 이용자들로부터 뉴스 서비스의 품질에 대한 평가를 받아 본 적이 있는지가 궁금합니다. 그래서 그런 식의 평가가 우선 되어야 된다고 보고요.
그다음에 그런 문제를 개선하기 위한 알고리즘 개선으로 들어가야지 말씀하신 것처럼 정치적인 어떤 공정성이나 이런 것들보다는 이용자의 다양성을 반영할 수 있는 그러한 이용자위원회 같은 것들이 한 사가 아니라 포털사업자 다 통합해서 운영할 수 있도록 그런 평가와 제안을 하는 그런 위원회가 필요하다고 봅니다.
수고하셨습니다.
이상으로 토론을 마치도록 하겠습니다.
오늘 공청회를 통해서 진술인과 참고인들로부터 좋은 의견을 들을 수 있었습니다.
진술인들께서 제시해 주신 의견들은 앞으로 우리 위원회가 관련 안건을 심사하는 데 많은 참고가 될 것입니다.
위원님들께서는 오늘 공청회 과정에서 제기된 사항들을 참고하셔서 관련 안건에 대한 심도 있는 논의를 해 주시기 바랍니다.
확증편향으로 인한 국론 분열은 우리 사회가 풀어 가야 할 커다란 과제 중 하나입니다. 소비자는 포털을 통해서 뉴스를 접하고 상품을 구입합니다. 언론사가 포털의 콘텐츠 제공업자가 되어 버린 상황입니다. 포털의 알고리즘이 확증편향을 만들고 있다면 우리 사회 갈등은 더욱 증폭될 것입니다. 우려하지 않을 수 없습니다.
오늘 숙제가 던져졌습니다. 우리 사회의 갈등을 없애고 공동체를 회복할 것인가 하는 문제에 대해 국회도 노력하겠습니다. 사업자를 비롯한 오늘 참석하신 분들께서도 많은 고민을 해 주시기를 당부드리겠습니다.
오늘 귀한 시간을 내어 공청회에 참석해 주신 진술인․참고인 여러분들께 감사의 말씀을 드립니다.
포털 알고리즘 관련 공청회를 마치겠습니다.
산회를 선포합니다.
이상으로 토론을 마치도록 하겠습니다.
오늘 공청회를 통해서 진술인과 참고인들로부터 좋은 의견을 들을 수 있었습니다.
진술인들께서 제시해 주신 의견들은 앞으로 우리 위원회가 관련 안건을 심사하는 데 많은 참고가 될 것입니다.
위원님들께서는 오늘 공청회 과정에서 제기된 사항들을 참고하셔서 관련 안건에 대한 심도 있는 논의를 해 주시기 바랍니다.
확증편향으로 인한 국론 분열은 우리 사회가 풀어 가야 할 커다란 과제 중 하나입니다. 소비자는 포털을 통해서 뉴스를 접하고 상품을 구입합니다. 언론사가 포털의 콘텐츠 제공업자가 되어 버린 상황입니다. 포털의 알고리즘이 확증편향을 만들고 있다면 우리 사회 갈등은 더욱 증폭될 것입니다. 우려하지 않을 수 없습니다.
오늘 숙제가 던져졌습니다. 우리 사회의 갈등을 없애고 공동체를 회복할 것인가 하는 문제에 대해 국회도 노력하겠습니다. 사업자를 비롯한 오늘 참석하신 분들께서도 많은 고민을 해 주시기를 당부드리겠습니다.
오늘 귀한 시간을 내어 공청회에 참석해 주신 진술인․참고인 여러분들께 감사의 말씀을 드립니다.
포털 알고리즘 관련 공청회를 마치겠습니다.
산회를 선포합니다.
(12시34분 산회)