帳號:guest(18.191.132.36)          離開系統
字體大小: 字級放大   字級縮小   預設字形  

詳目顯示

以作者查詢圖書館館藏以作者查詢臺灣博碩士論文系統以作者查詢全國書目
作者(中文):劉境棠
作者(外文):Liu, Jing-Tang
論文名稱(中文):從人工智慧興起看現有個資保護之不足——以台灣醫療資訊去識別化規範之發展為例
論文名稱(外文):The Deficiency of the Data Protection System in the Age of Artificial Intelligence:A Study on De-identification for Identifiable Health Information of Taiwan
指導教授(中文):范建得
指導教授(外文):Fan, Chien-Te
口試委員(中文):林勤富
陳柏良
口試委員(外文):Lin, Ching-Fu
Chen, Po-Liang
學位類別:碩士
校院名稱:國立清華大學
系所名稱:科技法律研究所
學號:105074467
出版年(民國):107
畢業學年度:106
語文別:中文
論文頁數:79
中文關鍵詞:人工智慧個人資料保護醫療資訊保護去識別化匿名化
外文關鍵詞:artificial intelligencepersonal data protectionmedical information protectionde-identificationanonymization
相關次數:
  • 推薦推薦:0
  • 點閱點閱:194
  • 評分評分:*****
  • 下載下載:0
  • 收藏收藏:0
在各國政府不斷推出的人工智慧發展戰略與市場的推動力下,人工智慧逐漸應用於醫療衛生、疾病預防、環境保護等社會各個領域,隨著引發更為嚴峻之隱私洩露威脅。各國紛紛在立法上引入個人資料去識別化機制,認為去識別化是調和數據蒐集、使用分析和個人隱私保護的關鍵,然而原先去識別化之資訊,因人工智慧功能加強,其達到無從識別之可能性降低,在對足夠大的不同資料集進行整合后可能失去原有保護個資之作用,人工智慧之自動化決策亦是威脅。而人們對於個人資料,尤其是醫療資訊此類敏感個資之安全感到擔憂,隨著最高行政院民國106年度判字第54號判決生效,歷時四年的全民健康保險資料庫案落下帷幕,該案引起廣泛社會關注及對醫療資訊去識別化規範的爭議。本文將從隱私權與資訊隱私權之發展開始闡述,及各國政府大力推進人工智慧發展引發數據開放與保護之衝突,介紹人工智慧之意涵及發展,描述人工智慧科技發展對資訊隱私權產生之挑戰,以台灣醫療資訊保護及去識別化規範之發展為例,比較各國現有個人資料保護立法例,分析人工智慧技術對各國所採用之個資去識別化制度之衝擊,探討醫療資訊去識別化規範之爭議問題,結合各國因應人工智慧發展對現行立法所作之調整或調整建議,探討台灣現行個資保護之不足及可作之調整建議。
Under the driving force of the market and government, which successively released artificial intelligence development strategies report that artificial intelligence is widely used in various fields of society such as health care, disease prevention, and environmental protection, with the more serious threat of privacy. Many countries have introduced de-identification system into personal data protection in the legislation. They believe that de-identification is the key to reconciling data collection, usage analysis and personal privacy protection. However, the original identification data, due to the enhancement of artificial intelligence, its possibility of achieving no recognition is reduced if the integration of different databases is large enough, and the original protection of personal assets may be lost that automated decision-making of artificial intelligence is also a threat. People are worried about the security of personal data, especially sensitive data such as medical information. With the entry into force of the No. 54 Judgment of the 106th Annual Judiciary of the Supreme People's Court, the four-year National Health Insurance database case came to an end, which caused widespread social concern and disputes over the de-identification of medical information. This article will start from the conflicts between data opening and protection caused by the development of artificial intelligence by governments, and then introduce the meaning and development of artificial intelligence, describe the challenges of artificial intelligence technology development to information privacy, discuss personal data protection which is the focus of information privacy. Taking the development of medical information protection and de-identification in Taiwan as an example, compare the existing legislation of personal data protection in various countries, analyze the impact of artificial intelligence technology on the de-identification system, and explore the controversial issues of medical information de-identification system. At last, in conjunction with the adjustments or suggestions made by countries to the current legislation in response to the development of artificial intelligence, to explore the deficiency of Taiwan's current personal protection and possible adjustments.
摘要 II
Abstract III
致謝 IV
壹、引言 1
一、問題之緣起 1
二、研究目標與方法 3
1、研究目標 3
2、研究方法 3
三、研究限制 4
四、文章架構 4
貳、隱私權與資訊隱私權之發展 6
一、隱私權之發展 6
二、資訊隱私權 8
三、台灣資訊隱私權之憲法基礎 10
叁、人工智慧蓬勃興起時代下數據開放和保護之衝突 12
一、各國大力推進人工智慧之發展 12
二、人工智慧之意涵及發展 15
三、人工智慧科技發展對隱私權之挑戰 17
肆、台灣及各國醫療資訊保護規範之發展 20
一、台灣全民健康保險資料庫案 20
二、個人資料保護法發展 23
1、台灣 23
2、歐盟 24
3、美國 27
4、英國 28
三、醫療資訊類特種敏感個資之保護 29
1、台灣 29
2、歐盟 31
3、美國 33
4、英國 35
四、小結 37
伍、醫療資訊去識別化機制之應用與爭議 39
一、去識別化之定義與標準,及去識別化在當今大數據乃至人工智慧時代下是否真能發揮它預期之作用? 39
1、台灣 39
2、歐盟 43
3、美國 48
4、英國 49
二、原先蒐集之個人資料,在「去識別化」后是否就可以完全被排除在個資法保護範圍之外而可以隨意使用? 52
1、台灣 52
2、歐盟 53
3、美國 54
4、英國 55
三、是否應明確對「重新識別」定期進行風險評估,如何規制其法律責任? 56
1、台灣 56
2、歐盟 57
3、美國 57
4、英國 60
四、即便是以公共利益為先,資料當事人是否仍應有選擇「退出」之權利? 61
五、小結 62
陸、人工智慧時代下台灣個資保護之不足 64
一、去識別化制度不夠嚴謹 64
二、未納入自設計著手隱私保護相關原則 64
三、未引入資料保護影響評估制度 66
四、未對自動化決策進行限制 67
柒、結論 69
參考文獻: 71
專書:
1. 丹尼爾·沙勒夫著,林錚顗譯(2015),隱私不保的年代:網路的流言蜚語、人肉搜索、網路霸凌和私密窺探,台北:五南出版社。
2. 布魯斯·施奈爾著,韓沁林譯(2016),隱形帝國:誰控制大數據,誰就控制你的世界,台北:大雁出版社。
3. 弗蘭克·帕斯奎爾著,趙亞男譯(2015),黑箱社會:控制金錢和信息的數據法則,北京:中信出版社。
4. 克里斯多夫·庫克里克著,黃昆、夏柯譯(2018),微粒社會——數字化時代的社會模式,北京:中信出版社。
5. 胡世忠著(2013),雲端時代的殺手級應用:海量資料分析,台北:天下雜誌。
6. 查爾斯·杜希格著,吳奕俊、曹燁譯(2013),習慣的力量,北京:中信出版社。
7. 馬憲民主編,楊君銳副主編(2002),人工智能的原理和方法,西安:西北工業大學出版社。
8. 騰訊研究院、中國通信院互聯網法律研究中心、騰訊AI Lab、騰訊開放平台著(2017),人工智能,北京:中國人民大學出版社。

期刊文獻:
1. 王自雄(2016),資安保護與隱私保障之兩難?——美國2015年網路安全資訊分享法簡介,科技法律透析,28卷1期,頁4-5。
2. 王明禮(2014),論資訊隱私:科技與商業發展脈絡下的觀察,中原財經法學,32期,頁59-105。
3. 李建良(2018),資料流向與管控環節─個資保護 ABC,月旦法學雜誌,272期,頁25-31。
4. 呂丁旺(2010),淺析修正「個人資料保護法」,月旦法學雜誌,183期,頁131-146。
5. 吳全峰、許慧瑩(2018),健保資料目的外利用之法律爭議——去識別化作業工具談起,月旦法學雜誌,272期,頁45-62。
6. 邱文聰(2018),被淘空的法律保留與變質的資訊隱私憲法保障──評最高行政法院一○六年度判字第五四號判決與相關個資法條文,月旦法學雜誌,272期,頁32-44。
7. 邱忠義 (2014),談個人資料保護法之間接識別,月旦裁判時報,30期,頁95-103。
8. 何明諠(2016),數位時代的隱私邊界:以健保資料庫與ETC交通資料庫為例,台灣人權學刊,3卷4期,頁139-153。
9. 范建得、廖嘉成(2008),論建置台灣族群基因資料庫應有之法律及倫理規範,台北大學法學論叢,68 期,頁95-149。
10. 范姜真媺 (2013.12),個人資料保護法關於「個人資料」保護範圍之檢討,東海大學法學研究,41期,頁91-123。
11. 范姜真媺、劉定基、李寧修(2016),法務部「歐盟及日本個人資料保護立法最新發展之分析報告」委託研究案成果報告,頁7。
12. 林其樺(2015),因應個人資料重新識別疑慮,挪威資料保護主管機關Datatilsynet公布匿名化指導方針,科技法律透析,27卷10期,頁7-8。
13. 林其樺(2016),個人資料保護、利用與匿名化歐盟法制趨勢觀察,科技法律透析,28卷6期,頁35-42。
14. 林其樺(2017),數位浪潮:由歐盟個人資料管理制度與英國匿名化探索資料合理利用,科技法律透析,29卷1期,頁17-25。
15. 祝亞琪(2016),行動支付之個人資料去識別化方法,電腦稽核,34期,頁18-27。
16. 紀振清、陳永鴻(2015),以HFMEA檢視我國醫療資訊保護法制,高大法學論叢,13:2期,頁63-133。
17. 徐仕瑋(2014.12),個資法所保護個人資料之範圍界定,《月旦裁判時報》,30期,頁123-138。
18. 徐彪豪(2016),物聯網時代的資料保護防線-以歐盟GDPR為中心,科技法律透析,28卷10期,頁56-71。
19. 郭戎晉(2016),日本個人資料保護法修正重點與去識別化推動剖析,科技法律透析,28卷6期,頁43-52。
20. 陳聰富、蔡甫昌(2017),大數據應用於醫學研究之法律議題,台灣醫學,21卷1期,頁34-42。
21. 彭金隆、陳俞沛、孫群(2017),巨量資料應用在台灣個資法架構下的法律風險,臺大管理論叢,27卷2S期,頁93-118。
22. 葉志良(2016),大數據應用下個人資料定義的檢討:以我國法院判決為例,資訊社會研究,31期,頁1-33。
23. 程法彰(2015),網路管理偵查與隱私以及對網路服務業者的影響,通訊傳播法研究,1卷,頁238。
24. 程法彰(2017),數位經濟時代下個人資料保護的衝突與歐盟個資保護規則顯示的意義,月旦法學雜誌,264期,頁229-244。
25. 楊智傑(2014),美國醫療資訊保護法規之初探:以HIPAA/HITECH 之隱私規則與資安規則為中心,軍法專刊,60期,頁79-116。
26. 樓一淋、何之行(2017),個人資料保護於雲端運算時代之法律爭議初探暨比較法分析:以健保資料為例,國立台灣大學法學論叢,46卷2期,頁339-422。
27. 樊國楨、蔡昀臻(2016),個人資料管理系統標準化初論:根基於個人資料去識別化之議題,資訊安全通訊,22卷1期,頁1-27。
28. 樊國楨、蔡昀臻(2017),擬匿名化(Pseudonymization)的大數據(Big Data)之安全標準初探:根基於支付卡(Payment Card)的安全事故與公開金鑰基礎建設(Public Key Infrastructure,簡稱PKI)之技術脆弱性的議題,資訊安全通訊,23卷2期,頁24-42。
29. 劉定基 (2012),個人資料的定義、保護原則與個人資料保護法適用的例外—以 監控錄影為例(上),月旦法學教室,115期,頁42-54。
30. 劉定基(2010),個人資料保護法初論,台灣法學雜誌,159期,頁1-8。
31. 劉定基(2017),大數據與物聯網時代的個人資料自主權,中華民國憲法學會,42卷3期,頁265-308。
32. 潘俊良(2017),歐盟和德國對於自動駕駛及智慧交通系統之個人資料保護發展,科技法律透析,29卷9期,頁52-69。
33. 羅婉云、章英華、于若蓉(2017),國外政府調查與行政資料庫範例—英國國家資料庫,人文與社會科學簡訊,18卷4期,頁145-155。

政策文件:
1. 法務部105年1月22日「公務機關利用去識別化資料之合理風險及法律責任」報告,https://training.ndc.gov.tw/upload/ofiles/20161021090832.pdf,最後瀏覽日2018年5月5日。
2. 行政函釋:法務部103年11月17日法律字第10303513040號函,https://mojlaw.moj.gov.tw/LawContentExShow.aspx?type=e&id=I00100%2C%E6%B3%95%E5%BE%8B%2C10303513040%2C20141117。
3. 經濟部標準檢驗局 (2016),「個人資料去識別化」驗證標準規範研訂及推廣,2016/2/23,https://www.slideshare.net/vtaiwan/ss-58562437,最後瀏覽日2018年5月5日。
4. 法務部編印,個人資料保護法規及參考資料彙編,2013年8月,頁20,http://www.moj.gov.tw/public/Attachment/31011536015.pdf,最後瀏覽日2018年5月5日。
5. 立法院公報,第104卷第96期院會紀錄,https://lis.ly.gov.tw/lgcgi/lypdftxt?10409602;0265;0270, 最後瀏覽日2018年5月5日。
6. 資策會科技法律研究所(2009),美國衛生部門公佈個人健康資訊外洩責任實施綱領,https://stli.iii.org.tw/article-detail.aspx?no=64&tp=1&i=77&d=3072,最後瀏覽日2018年5月5日。

網路資訊:
1. 王融(2018),隱私與競爭:數字經濟秩序的平衡之道,騰訊研究院,http://www.tisi.org/5013_60.
2. 丁文聯(2018),數據競爭的法律制度基礎,互聯網經濟學,騰訊研究院,http://www.sohu.com/a/227297138_455313.
3. 黃彥棻 (2015),擴大開放資料廣度的關鍵下一步,個資匿名和去識別化也有國家標準,《iThome》,https://www.ithome.com.tw/news/98997.
4. 林其樺 (2015),一般常見把姓名、身分證字號隱碼的做法,其實並不等於將個人資料「去識別化」,《關鍵評論》,https://www.thenewslens.com/article/33049.
5. 蘇文彬(2015),Whoscall分享波多野結衣悠遊卡搶購統計數據,因紀錄用戶撥出電話涉隱私爭議,《iThome》,2015/9/4,https://www.ithome.com.tw/news/98533.
6. 陳怡如(2017),人工智慧浪潮與日本AI產業化規劃重點,2017/12/20,https://portal.stpi.narl.org.tw/index/article/10357.
7. 曾雄、徐嘉瑩(2018),歐洲人工智能戰略解讀:走向以人為本的人工智能時代,騰訊研究院,http://new.qq.com/omn/20180425/20180425A1BKHV.html.
8. 郭年真、賴飛羆、李鎮宜、陳宛琪、俞志欣、古乙岑、歐陽良孟、張婷(2017),智慧醫療關鍵議題與對策之研究結案報告,國家發展委員會委託研究, https://www.ndc.gov.tw/News_Content.aspx?n=E4F9C91CF6EA4EC4&sms=4506D295372B40FB&s=DDFAF1511C4DE4C1.
9. NHS England web site, https://www.england.nhs.uk/2013/10/care-data/.

外文文獻:
1. All, E. R. (2000). R. v. Department of Health ex parte Source Informatics Ltd. Medical law review, 8, 115-149.
2. Anderson, J. G. (2004). Consumers of e-health: patterns of use and barriers. Social Science Computer Review, 22(2), 242-248.
3. Article 29 Data Protection Working Party, Opinion 03/2013 on purpose limitation, 2 April 2013.
4. Article 29 Data Protection Working Party, Opinion 05/2014 on Anonymisation Techniques, 10 April 2014.
5. Department for Digital, Culture Media & Sport(UK), A New Data Protection Bill- Our Planned Reforms,7 August 2017.
6. Department for Digital, Culture Media & Sport(UK), Research and analysis to quantify the benefits arising from personal data rights under the GDPR, May 2017.
7. Esayas, S. (2015). The role of anonymisation and pseudonymisation under the EU data privacy rules: beyond the ‘all or nothing’approach.
8. Elliot, M., Mackey, E., O'Hara, K., & Tudor, C. (2016). The anonymisation decision-making framework. UKAN.
9. Elliot, M., & Dale, A. (1999). Scenarios of attack: the data intruder’s perspective on statistical disclosure risk. Netherlands Official Statistics, 14(Spring), 6-10.
10. El Emam, K., & Álvarez, C. (2014). A critical appraisal of the Article 29 Working Party Opinion 05/2014 on data anonymization techniques. International Data Privacy Law, 5(1), 73-87.
11. El Emam, K., & Malin, B. (2015). Appendix b: Concepts and methods for de-identifying clinical trial data. Sharing clinical trial data: Maximizing benefits, minimizing risk, 203, 214.
12. European Political Strategy Centre. The Age of Artificial Intelligence: Towards a European Strategy for Human-Centric Machines, 27 March 2018.
13. Garfinkel, S. L. (2015). De-identification of personal information. NISTIR, 8053, 1-46.
14. Goodman, B., & Flaxman, S. (2016). European Union regulations on algorithmic decision-making and a" right to explanation". arXiv preprint arXiv:1606.08813.
15. Graham, C. (2012). Anonymisation: managing data protection risk code of practice. Information Commissioner’s Office.
16. Hall, D. W., & Pesenti, J. (2017). Growing the artificial intelligence industry in the UK. Independent review for the Department for Digital, Culture, Media and Sport/Department for Business, Energy and Industrial Strategy, https://www. gov. uk/government/publications/growing-the-artificial-intelligence-industry-in-the-uk.
17. Government Office for Science (2016). Artificial intelligence: opportunities and implications for the future of decision making. https://www.gov.uk/government/publications/artificial-intelligence-an-overview-for-policy-makers.
18. House of Lords. (2017). Committee on Artificial Intelligence. AI in the UK: ready, willing and able, Report of Session 2017–19. HL Paper 100. https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf
19. House, W. (2011). National strategy for trusted identities in cyberspace, enhancing online choice, efficiency, security, and privacy.
20. ICO, Data protection by design and default, https://ico.org.uk/for-organisations/guide-to-the-general-data-protection-regulation-gdpr/accountability-and-governance/data-protection-by-design-and-default/.
21. Kotschy, W. (2016). The new General Data Protection Regulation-Is there sufficient pay-off for taking the trouble to anonymize or pseudonymize data.
22. Koza, J. R., Bennett, F. H., Andre, D., & Keane, M. A. (1996). Automated design of both the topology and sizing of analog electrical circuits using genetic programming. In Artificial Intelligence in Design’96 (pp. 151-170). Springer, Dordrecht.
23. Martin Abrams, John Abrams, Peter Cullen, Lynn Goldstein (2017), Artificial Intelligence, Ethics and Enhanced Data Stewardship, 20 September 2017.
24. Networked, C. D. P. I. A. World: A Framework For Protecting Privacy And Promoting Innovation In The Global Digital Economy. White House, 2012. https://privacyandsecuritymatters.mintzlevinblogs.com/wp-content/uploads/sites/6/2012/03/Summary-of-White-House-Privacy-Framework-Feb-2012-21.pdf
25. O'Keefe, C. M., & Chipperfield, J. O. (2013). A summary of attack methods and confidentiality protection measures for fully automated remote analysis systems. International Statistical Review, 81(3), 426-455.
26. Ohm, P. (2009). Broken promises of privacy: Responding to the surprising failure of anonymization. Ucla L. Rev., 57, 1701.
27. Regulation, G. D. P. (2016). Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46. Official Journal of the European Union (OJ), 59(1-88), 294.
28. Russell, Stuart J.; Norvig, Peter . (2003).  Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall,  ISBN 0-13-790395-2. 17.
29. Schwaab, K. (2015). The fourth industrial revolution: what it means, how to respond. Foreign Affairs, 12, 2015-17.
30. Solove, D. J. (2006). A Taxonomy of Privacy. University of Pennsylvania Law Review, 154(3), p477-560.
31. The Norwegian Data Protection Authority. Artificial intelligence and privacy, January 2018. https://www.datatilsynet.no/en/about-privacy/reports-on-specific-subjects/ai-and-privacy/.
32. Trotter, J. K. (2014). Public nyc taxicab database lets you see how celebrities tip. Gawker, October, 23.
33. US Department of Health and Human Services. (2015). Guidance regarding methods for de-identification of protected health information in accordance with the Health Insurance Portability and Accountability Act (HIPAA) Privacy Rule.
34. Warren, S. D., & Brandeis, L. D. (1890). The right to privacy. Harvard law review, 193-220.
35. William L. Prosser (1960). Privacy. California Law Review, Vol.48:383. 383-423. 
36. 38th International Conference Of Data Protection and Privacy Commissioners (2016). Resolution on developing new metrics of data protection regulation, 18 October 2016.
(此全文未開放授權)
電子全文
中英文摘要
 
 
 
 
第一頁 上一頁 下一頁 最後一頁 top
* *