立即咨詢
您當前的位置:職稱驛站 > 論文 > 科技論文 > 智能科學技術論文職稱驛站24小時論文發表咨詢熱線:400-680-0558

人工智能發展的社會風險及監管路徑研究

職稱驛站所屬分類:智能科學技術論文發布時間:2020-01-31 16:08:38瀏覽:1

人工智能技術的出現和發展必然會引發一系列潛在風險,包括倫理道德危機、技術濫用隱患、極化異化風險以及軍事戰爭災難等。與此同時,人工智能時代的到來也使得諸多法律問題陷入困境

   摘 要:人工智能技術的出現和發展必然會引發一系列潛在風險,包括倫理道德危機、技術濫用隱患、極化異化風險以及軍事戰爭災難等。與此同時,人工智能時代的到來也使得諸多法律問題陷入困境,如法律主體資格的確定、著作權的歸屬、侵權責任的認定、人格權的保護以及無人駕駛汽車和替代勞工的相關問題等。對此,必須深入探究未來人工智能發展的監管路徑,采取塑造多元價值目標、構建倫理規范體系、建立法律監管制度和加強國際協同合作等措施,有效規避人工智能帶來的社會風險和法律挑戰,從而最大程度發揮人工智能的積極作用。

  關鍵詞:人工智能;社會風險;法律挑戰;監管路徑

  中圖分類號:D922.17 文獻標識碼:A 文章編號:1671-9255(2019)02-0047-05

模式識別與人工智能

  《模式識別與人工智能》是由中國自動化學會、國家智能計算機研究開發中心和中國科學院合肥智能機械研究所共同主辦、科學出版社出版的學術性期刊。本刊主要發表和報道模式識別、人工智能、智能系統等方面的研究成果與進展,旨在推動信息科學技術發展。

  近年來,人工智能(Artificial Intelligence,AI)技術日趨成熟,已經逐漸從封閉的科學實驗領域進入開放的商業應用領域,人工智能產品也充斥于人們的日常生活,如智能手機、智能電視以及智能汽車等智能硬件和深度學習、圖像識別以及語言處理等智能軟件。雖然中外學界早已對AI技術的研究和運用問題給予高度關注,各國政府也紛紛出臺相應的人工智能發展戰略和政策,但人工智能存在的潛在風險和面臨的法律困境卻并沒有得到足夠重視,盡管已有不少著名學者、科學家和企業家一再發出警告,如斯蒂芬·霍金、埃隆·馬斯克和比爾·蓋茨一直堅持認為的“人工智能惡魔論”或“人工智能威脅論”。因此,基于人工智能技術的發展現狀,當務之急便是探索多元化的監管路徑來應對人工智能技術引發的社會風險和法律挑戰。

  一、當下人工智能發展狀況

  自21世紀初以來,人工智能浪潮以極其驚人的速度席卷全球。在IBM、Google、Facebook、Microsoft等國際領軍科技企業和百度、阿里巴巴、騰訊等國內知名科技企業的帶領下,我國人工智能水平急速提升。根據《2018-2024年中國人工智能行業市場深度調研及未來發展趨勢報告》的數據顯示,在AI市場規模方面,2015年全球約為74億美元,預計到2024年將達到406億美元,我國約為12億美元,預計到2020年將達到91億美元。[1]另外,根據《烏鎮指數:全球人工智能發展報告(2017)》的數據顯示,自2000年至2016年,在AI企業數量方面,全球新增8107家,我國新增1477家;在AI企業融資方面,全球約為288億美元,我國約為27億美元。[2]由此可見,人類將正式進入新的社會時代

  ——人工智能時代。

  (一)國際社會高度重視

  1956年,在由約翰·麥卡錫、赫伯特·西蒙、艾倫·紐厄爾、馬文·閔斯基以及克勞德·香農等眾多科學家參加的“達特茅斯(Dartmouth)會議”上,“人工智能”這一全新的標志性概念被首次提出,正式宣告著人工智能的誕生。[3]后經半個多世紀的發展,美國Google公司生產的AI機器人——“阿爾法狗(AlphaGo)”分別于2016年、2017年接連擊敗人類頂尖棋手李世石(韓國)、 柯潔(中國),將人工智能技術推向了迄今為止的歷史最高點,引起了國際社會的廣泛關注。隨后,歐美等國和歐盟、聯合國等國際組織順應人工智能時代潮流,相繼出臺了新一輪的人工智能發展戰略。

  美國作為目前全球科技發展的頭號強國,正在全面加強對人工智能技術的研究與開發。2016年,美國陸續發布了《為人工智能的未來做好準備》(下稱《準備》)、《國家人工智能研究和發展戰略計劃》(下稱《計劃》)以及《人工智能、自動化與經濟報告》(下稱《報告》)等多份與人工智能相關的政策文件。其中,《準備》詳細闡述了人工智能的現狀、趨勢、影響和對策;《計劃》全面構建了美國人工智能未來的研發框架、戰略和方式;《報告》深度剖析了AI技術自動化對經濟和就業產生的影響。[4]繼美國之后,歐洲各國也都紛紛著手部署人工智能戰略。英國發展人工智能最為積極,分別于2016年、2017年、2018年發布了《機器人技術和人工智能》、《人工智能:未來決策的機會和影響》、《在英國發展人工智能》以及《人工智能行業新政》等諸多報告,旨在成為全球人工智能技

  術的領導者;法國人工智能發展勢頭十分強勁。最新發布的《法國人工智能發展戰略》將重點放在了未來幾年法國人工智能技術的投資規模和應用領域方面;德國人工智能發展具有極強的前瞻性。2011年率先提出的“工業4.0”戰略對人工智能發展做了基礎預判。2018年發布的《聯邦政府人工智能戰略要點》更是表示要將人工智能技術提升到世界領先水平。

  另外,國際組織尤為重視人工智能發展。早在2014年,歐盟便發布了《2014-2020歐洲機器人技術戰略》來促進AI機器人行業的快速發展。由于該戰略具有局限性,無法完全適用于整個人工智能行業的發展,歐盟于2018年4月發布《歐盟人工智能》報告,較為具體地制訂了日后的AI行動計劃。2016年,聯合國發布了《關于機器人倫理的草案報告》,呼吁世界各國在AI領域加強合作,共同應對機器人引發的倫理問題和法律難題。

  (二)國內持續蓬勃發展

  現階段,我國人工智能的發展速度相當迅猛,發展潛力極其巨大。

  首先,在國家政策方面,我國近幾年先后制訂了若干人工智能戰略規劃以此來支持人工智能技術研發和產業發展。伴隨《“十三五”國家科技創新規劃》、《新一代人工智能發展規劃》、《促進新一代人工智能產業發展三年行動計劃(2018—2020年)》以及《人工智能標準化白皮書(2018版)》等文件的陸續出臺和落地實施,我國人工智能已經迎來了政策紅利期和發展黃金期。[5]其次,在技術研發方面,我國目前的數據資源十分豐富,計算機運算速度非常迅速。人工智能技術是對大量數據進行分析,通過不斷調整尋求最佳結果的過程,數據資源豐富與否對于人工智能技術研發至關重要。21世紀初以來,我國互聯網技術的廣泛應用使得數據信息能夠得以快速有效收集和儲存,這為人工智能技術研發提供了海量的數據資源。此外,我國早在2013年就擁有了全球運算速度最快的計算機——“天河二號”,這為人工智能技術研發提供了有力的技術支撐。再次,在人才儲備方面,我國AI領域的技術人才總量在國際上位居第二,僅次于美國。多年以來,我國特別重視教育發展,通過科教興國、人才強國等戰略的實施,培養了眾多有著良好數理基礎的研究型人才,為人工智能發展奠定了人才基礎。最后,在市場需求方面,我國經濟發展亟待人工智能這一新興科技提供動力支撐。近年來,我國勞動力成本逐年上升,傳統人口紅利正在面臨消失危機,產業結構轉型升級已經刻不容緩,人工智能的崛起能夠有效促進我國部分產業的自動化生產,從而有助于降低生產成本、解決人口紅利危機、促進經濟快速發展。

  二、人工智能存在的社會風險

  (一)倫理道德危機

  人工智能技術的發展給人類社會崇尚的倫理道德帶來諸多危機。一方面,人工智能產品在自主化運行過程中極容易出現妄言、亂舉等違反人道主義的惡性事件。主要包括以下三種情形:第一,算法歧視現象。從表面上看,人工智能算法似乎僅僅只是一種由輸入到輸出的客觀數學表達,與人類的價值觀毫無關聯,但實際上卻內在隱含著各種主觀歧視,包括性別歧視、種族歧視和職業歧視等,如在Google網站輸入黑人名字進行搜索時,犯罪相關信息出現的概率要比搜索白人名字高得多。[6]與個人歧視的局部性不同,算法歧視是系統化的,一旦形成將對整個社會的公正倫理道德觀造成嚴重影響。第二,人類情感危機。從現有研究成果看,已經出現了可以感知人類情緒包括分享人類快樂和撫慰人類悲傷的陪伴型機器人,未來還會出現伴侶型或性愛型機器人,這無疑是對人類情感需求和社會倫理道德的重大顛覆。第三,人文精神危機。從目前發展趨勢看,互聯網正在使人類變得愈發孤立、冷漠,可以預見,人類的自主行為在不久的將來會逐漸被人工智能的模擬行為所取代,人類生存和發展的意義將不復存在,人文精神也會日漸衰落。另一方面,人類與生俱來的優勢心態,使其在使用人工智能產品過程中極容易出現侮辱、謾罵,甚至毆打、虐待等暴力行為,特別是當智能機器人無限接近于人類時,人類錯誤的價值取向必然很難堅守住社會倫理道德底線。

  (二)技術濫用隱患

  當人工智能技術逐步成為社會發展的主導力量時,一旦被肆意濫用,引發的社會危機則不可小覷。例如,AI機器人出現帶來的失業危機和經濟動蕩,AI創作平臺廣泛應用造成的文化坍塌,甚至發展到一定程度后與人類生活息息相關的AI技術或將導致的政治變革。另外,人工智能技術濫用還會滋生信息泄露、安全風險、侵權行為以及網絡犯罪等一系列社會問題。對此,OpenAI和Oxford、Cambridge等世界頂尖學府和其他多家知名機構聯合發布了一份預警AI惡意使用的報告,報告中深刻分析了AI在未來5年內遭到濫用的各項風險,并提出了多種防范措施。[7]由此可見,人工智能技術濫用隱患必須引起人類足夠重視,勢必將其扼殺于搖籃。

  (三)極化異化風險

  對于極化風險,互聯網背景下大數據時代的到來雖然給人工智能技術的研發提供了海量數據資源,但它帶來的惡性現象或將是貧富極化。具體來說,未來人類社會地位和金錢財富的獲得更多的是依靠占有數據信息和運用智能算法,而不再是僅僅依賴于勞動和投資,例如國外Google、Microsoft和國內阿里、騰訊等大型企業掌握的數據信息和算法技術是創業公司和小微企業無法望其項背的,它們就能夠通過信息壟斷和算法活用等手段在非常短的時間內獲得巨額財富。

  對于異化風險,國內外不少專家學者認為,人類目前正在無比積極、主動地創造一個比自身更為先進的強大物種,也就是說未來人工智能的智力水平或將遠遠超越人類?梢灶A見,隨著技術不斷成熟,人工智能的智商和情商發生異化與畸變的可能與日俱增,那時人類將無法完全預測其自主獨立化的思維方式,一旦出現技術失控,對人類造成的影響和破壞將是毀滅性的。

  (四)軍事戰爭災難

  不難想象,成熟之日的人工智能必然要應用到軍事戰爭領域,它將改變傳統的軍事戰爭方式,對人類造成的危險性和破壞性絲毫不遜于如今的核武器。也就是說,未來的戰場上會有一批“智能武器”,如作戰冷血、毫無惻隱之心的戰爭機器人,人類彼此之間正面交戰的幾率會逐漸減少直至為零,只需通過一個簡單指令就能遠程操控“智能武器”,各國摩擦會變得愈加頻繁,戰爭門檻會變得更低。[8]從表面上看,智能武器在軍事戰爭領域的應用貌似很大程度上降低了士兵傷亡的比率,但實際上智能戰爭的殘忍程度和毀滅程度是傳統戰爭根本無法比擬的。另外,“人工智能恐怖主義”或將席卷全球。

  三、人工智能面臨的法律挑戰

  (一)法律主體資格問題

  在民法理論中,民事主體必須具有獨立人格,也就是說,民事主體要么是具有自然屬性的自然人,要么是具有法律屬性的法人,因而在微觀層面上,很難將智能機器人認定為民事主體。[9]從宏觀層面看,智能機器人不具備法律主體資格的原因有以下幾點:首先,智能機器人通常都是作為輔助角色存在于人類生活中。即便日后它具有了超強的自主學習能力,但就獨立思維和價值判斷來說,智能機器人只能是無限接近于人類,永遠無法超越人類,因而賦予其人類享有的法律主體資格并不合理。其次,法律主體除了具有權利能力外,還應當具有責任能力,智能機器人根本沒有經濟能力去承擔任何的法律責任。最后,在智能機器人還未實現完全自主化之前,其啟動運行都是基于研發者的設定或使用者的操控,若將此種情況下產生的否定性法律后果直接歸于智能機器人,即讓智能機器人作為法律主體承擔法律責任并不妥當。

  (二)著作權問題

  2017年,“微軟小冰”(人工智能機器人)創作出人類歷史上首部人工智能作品——《陽光失了玻璃窗》。由此引出一個新問題:人工智能生成作品能否受到《著作權法》保護?具體須作以下分析。

  第一,智能機器人創作的作品是否享有著作權?答案是肯定的!吨鳈喾ā繁Wo的作品勢必要具有獨創性特征,并且該特征僅針對作品的表現形式,至于作品內在蘊含的信息、技法、思想以及價值等在所不問。[10]也就是說,智能機器人創作的作品,只要是由其獨立完成,而非抄襲或剽竊他人作品,就應當受《著作權法》保護,即享有著作權。第二,著作權應歸屬于智能機器人還是智能機器人的研發者或所有者?毫無疑問應當歸屬于后者。由于智能機器人主要是依靠數據分析和算法技術進行創作,因而創作的技術路徑完全都是由人類設定。據此,可以借鑒雇傭作品或職務作品的相關法律規定,將著作權歸屬于研發者或所有者。

  (三)侵權責任問題

  以智能機器人為例。一方面,如果是人類侵害智能機器人,就必須首先認定智能機器人是否具備法律主體資格。若持肯定觀點,則侵權人必須承擔民事侵權責任,達到犯罪程度應以故意傷害罪或故意殺人罪追究其刑事責任;若持否定觀點,則侵權人亦須承擔民事侵權責任,達到犯罪程度應以毀壞財物罪追究其刑事責任。另一方面,如果是智能機器人致人損害,可分兩種情形:一是人類故意操控智能機器人給他人造成損害,此時侵權責任毫無疑問應由侵權人承擔;二是智能機器人自主行為直接給他人造成損害,如工業機器人在生產中造成工人死亡,手術機器人在治療中造成病人死亡等,這種情況下要看智能機器人的設計者、制造者以及使用者是否存有過失。若有,則可按照產品侵權追究相關人員的責任;若無,也就是說完全是智能機器人的“擅自所為”,此時可參照替代責任(如雇傭關系中的雇主替代責任)追究相關人員的責任。[11]

  (四)人格權問題

  人工智能技術的發展對人格權中隱私權的侵害最為嚴重。據報道,2017年5月,Google公司旗下的DeepMind(人工智能企業)大規模獲取了英國三家醫院數百萬名萬病人的隱私數據(包括艾滋病、吸毒、墮胎等信息),引起軒然大波。[12]由此可見,未來人類社會必然是“互聯網+大數據+人工智能”的時代,人類將毫無隱私可言,就如作家洛麗·安德魯斯在書中所述,未來社會將不再僅僅是無隱私或零隱私社會,而是負隱私社會。在傳統社會,人類隱私泄露是個體性的,但在未來甚至現在隱私泄露就是集體性的、社會性的。因而,人工智能時代的隱私保護至少要做到以下三點:一為增強自我隱私保護意識;二為強化企業隱私保護責任;三為加快隱私保護立法進程。

  (五)無人駕駛汽車問題

  無人駕駛汽車給現有的交通法律體系帶來諸多挑戰。主要有以下三方面。 第一,規制對象發生轉變。無人駕駛汽車的出現使得駕駛人概念逐漸消失。駕駛人的駕駛技能(是否通過駕駛證考試)亦不再是交通法律規定的準入資格。也就是說,交通法律規制對象不會局限于駕駛人,智能汽車的研發者或制造者也會被納入規制對象范圍。第二,責任體系面臨重構。在傳統的交通法律體系中,交通事故的責任認定一般以過錯責任為原則。對于無人駕駛汽車造成的交通事故,根本無從考察人工智能汽車的主觀過錯,其責任認定只能看造成的結果。第三,監管重心出現變化。在傳統駕駛中,駕駛人的駕駛技能是交通管理部門監管的重中之重,另外還包括汽車裝置的安全性能。在智能駕駛中,交通管理部門的監管重心變成了智能汽車內部的一系列軟硬件,如傳感器系統、緊急避險系統以及智能感知技術(通過語音、視像識別“理解”駕駛人意愿)等。

  (六)替代勞工問題

  未來,智能機器人將大規模進入各個行業領域,雖然可以極大地提高社會生產效率,降低社會生產成本,但也會引發一系列社會問題,如最直接的失業率急速上升問題和嚴重威脅社會穩定問題。牛津大學的一份調研報告顯示,未來智能機器人將會取代數以萬計的非技術工種,包括收銀員、快遞員、信貸員、司機、文秘、工人、農民等。目前智能分揀技術已經進入快遞行業。[13]智能機器人能否納入勞動法調整范疇?這是肯定的。歐盟早在2016年就已經提交動議,要求賦予智能機器人以“工人”身份,享有勞動權。同時,又該如何保護大批下崗職工的合法權益?下崗職工更多的是依靠微薄的社會保障金維持生活,因此完善社會保障法律制度成為保護下崗職工合法權益的應有之義。

  四、人工智能未來的監管路徑

  (一)塑造多元價值目標

  塑造多元價值目標是制定人工智能監管措施的最本質追求。首先,塑造正義的普適價值目標。正義價值內在蘊含人格正義、秩序正義、法律正義、道德正義等。它是人工智能時代下構建倫理道德規范體系和建立法律監管制度的正當性基礎,能夠幫助消滅算法歧視和大數據“殺熟”等惡性事件。其次,塑造安全的核心價值目標。人工智能技術雖還未完全成熟,但人類對其即將引發的安全問題已經充滿擔憂,擬人之禍、濫用之患、異化之險以及軍工之孽等都嚴重威脅著人類社會的安全與穩定,因而塑造以安全為核心的價值目標對監管人工智能發展極為重要。[14]再次,塑造創新的靈魂價值目標。面對人工智能革命,創新理念必須貫穿其中。無論是謀劃宏觀層面上的人工智能國家發展戰略,還是制定微觀層面上的人工智能產業促進政策,創新激勵機制的構建必不可少。最后,塑造和諧的終極價值目標。人工智能產品的性能安全、人工智能技術的良性發展以及人工智能社會的安定有序都要求所有的人工智能監管措施都必須將和諧價值作為指引方向。

  (二)構建倫理規范體系

  近年來,由于各國針對人工智能監管的配套法律法規尚未成型,因而亟須構建一套切實可行的倫理規范體系。第一,各國應當在中央和地方分別設立“人工智能倫理委員會”,由其制定統一《人工智能倫理章程》,為人工智能技術研發預設道德標準;第二,人工智能行業組織(如日本人工智能學會)和公司企業(如Google)要在內部設置相應的倫理委員會,制定科學規范的倫理管理規章制度,包括對科研人員和專家學者道德約束,對技術研發和產品應用道德指引等,同時還應定期主動召開人工智能安全研發例會,并及時向政府人工智能倫理委員會匯報。

  (三)建立法律監管制度

  對于人工智能技術引發的一系列潛在風險和法律難題,必須建立全方位的法律監管制度。第一,事前應預防。構建前瞻性的安全監測預警機制,將未來人工智能技術可能造成的惡性事件量化為“特別重大、重大、較大、一般”四個等級,當惡性事件突發時立即對其發展動向和不良影響進行研判、評估和預防,并及時向社會發布預警信息。[15]第二,事中須管控。開發新型的人工智能測試平臺,對人工智能系統和產品的各項性能(主要是安全性能)進行實時監測;建設動態的人工智能評價機制,對人工智能系統和產品的風險性、危害性等進行定期評估;實施全面的人工智能監管結構,對人工智能從研發到應用進行全程監管,包括設計問責、制造監督和使用管控。第三,事后必監督。新設專門的人工智能監管機構——“人工智能監管委員會”(可與“人工智能倫理委員會”合并為“人工智能發展委員會”)對人工智能技術進行監督,加大對技術濫用(如算法合謀、侵犯隱私)行為的處罰力度,同時督促行業和企業采取自律監管措施。

  (四)加強國際協同合作

  世界各國政府和全球國際組織應在未來人工智能監管中扮演組織機構的角色,協調各方利益沖突,構建全球治理聯盟。[16]一方面,世界各國在不斷加大人工智能研發投入力度的同時,也應劃撥專項資金用于研究人工智能極化異化、技術濫用等國際安全問題,鼓勵引導企業、公眾(包括專家學者和普通百姓)等多方社會主體參與人工智能監管;另一方面,國際組織就人工智能發展方向與應用領域問題必須制定統一的國際條約,做出明確禁止性規定(負面清單),形成全球性的人工智能技術風險控制機制。另外,在人工智能時代下須強化“人類命運共同體”意識。各國都應在謀求本國人工智能發展利益的同時合理兼顧他國利益,最大限度防范人工智能技術的不可逆危機,共同推進人工智能社會安定有序發展。

  五、結語

  站在人工智能時代的風口,我國必須牢牢抓住發展機遇,積極主動作為,全面推動人工智能經濟快速發展,但同時人工智能技術帶來的諸多社會風險和法律挑戰也不容我們忽視。因此,為了確保人工智能能夠健康持續發展,必須做好前瞻預防和后續監管工作,其中,塑造多元價值目標是前提,德治(構建倫理規范體系)與法治(建立法律監管制度)相結合是關鍵,構建全球人工智能治理聯盟是保障?傊,只有對人工智能技術發展采取多元化的監管措施,才能迎來一個美好安全的嶄新時代。

  參考文獻:

  [1]智研咨詢.2018-2024年中國人工智能行業市場深度調研及未來發展趨勢報告[EB/OL].[2019-01-02]. http://www.

  chyxx.com/research/201807/657002.html.

  [2]烏鎮智庫.烏鎮指數:全球人工智能發展報告2017 [EB/OL].[2017-08-10].https://www.useit.com.cn/thread-16182-1-1.html.

  [3]閆坤如.人工智能的道德風險及其規避路徑[J].上海師范大學學報,2018(2):40-47.

  [4]尹昊智,劉鐵志.人工智能各國戰略解讀:美國人工智能報告解析[J].電信網技術,2017(2):52-57.

  [5]潘敬萍.我國人工智能發展現狀與應對策略研究[J].現代商業,2018(21):25-28.

  [6]周程,和鴻鵬.人工智能帶來的倫理與社會挑戰[J].人民論壇,2018(2):26-28.

  [7]搜狐網.OpenAI等機構發布《人工智能惡意使用》報告,利用AI來犯罪只是時間問題[EB/OL].[2018-02-24].

  http://www.sohu.com/a/223853051_651893.

  [8]張敏,李倩.人工智能應用的安全風險及法律防控[J].西北工業大學學報,2018(3):108-115.

  [9]王利明.人工智能時代提出的法學新課題[J].中國法律評論,2018(2):1-4.

  [10]吳漢東.人工智能時代的冷思考[J].中國報業,2018(3):60-61.

  [11]雷悅.人工智能發展中的法律問題探析[J].北京郵電大學學報,2018(1):17-24.

  [12]搜狐網.即將進入手機人工智能時代,你的隱私安全誰來保護?[EB/OL].[2018-10-10].http://www.sohu.com/

  a/197491521_610727,2017-10-11.

  [13]199IT.牛津大學:預測2035年美國數百萬勞動力將被機器人取代[EB/OL].[2018-10-10].http://www.199it.com/

  archives/591916.html.

  [14]吳漢東.人工智能時代的制度安排與法律規制[J].法律科學,2017(5):128-136.

  [15]黨家玉.人工智能的倫理與法律風險問題研究[J].信息安全研究,2017(12):1080-1090.

  [16]馬治國,徐濟寬.人工智能發展的潛在風險及法律防控監管[J].北京工業大學學報,2018(6):65-71.

《人工智能發展的社會風險及監管路徑研究》

本文由職稱驛站首發,一個權威專業的職稱論文發表網

文章名稱:人工智能發展的社會風險及監管路徑研究

文章地址:http://www.kfmqyr.live/lunwen/keji/zn/41162.html

'); })(); 水果机在线客服 微乐麻将苹果版二维码 安徽快三开奖结果查询 体育比分网足球 上海快三开奖结果.快 现在多少货车靠运满满赚钱 足球直播英超 彩票七码计划稳吗 时时彩网 江苏十一选五玩法 体彩6+1 快递怎么样做才赚钱 老澳门即时赔率 篮球nba比分直播网站 职业差评师怎么赚钱 南国最大规律论坛 足彩混合过关稳赚