Chapter 1 Introduction and Theoretical Foundations Liberalism always cherished political equality, and it gradually came to realise that economic equality is almost as important. For without a social safety net and a modicum of economic equality, liberty is meaningless. But just as Big Data algorithms might extinguish liberty, they might simultaneously create the most unequal societies that ever existed. All wealth and power might be concentrated in the hands of a tiny elite, while most people will suffer not from exploitation, but from something far worse – irrelevance (Harari, 2018, 3, p. 74). More than ever, we find ourselves in an era of great change, happening at unknown pace (Harrington, 2018), and confronted with so-called exponential digital tech- nologies (Moore, 2006). With these becoming accessible to the economy, their true disruptive potential (Leonhard & von Kospoth, 2017) unfolds and this is having a ripple effect on different sectors, industries, and entire business models (Parviainen et al., 2017; Schwab, 20161 ; Stolterman & Fors, 2004). In particular, Artificial Intel- ligence (AI) is estimated to be the single most influential and disruptive factor for global economies and societies in the twenty-first century and the probable trigger for the next (industrial) revolution (Goli ́c, 2019; Makridakis, 2017; Paschek et al., 2019; Pathak et al., 2019). 1.1 Introductory Remarks In this book, I will define AI as an umbrella term for all technologies developed to analyse and interpret big sets of data or certain events, to assist human decision- making and thereby automating decision-making and actions performed by machines (Nilsson, 2009), particularly machine learning, as well as further advancements such as artificial neural networks (ANN) and deep learning.2 1 Computational power is understood to be the main force for the third industrial revolution. 2 The concepts mentioned will be further discussed in Chapter 2. © The Author(s), under exclusive license to Springer Nature Switzerland AG 2023 S. Wiesmüller, The Relational Governance of Artificial Intelligence, Relational Economics and Organization Governance, https://doi.org/10.1007/978-3-031-25023-1_1 1 2 1 Introduction and Theoretical Foundations Given the adaptable nature of AI, not being one specific technology or product but rather a tool, applicable to countless existing business models, processes, and products, it cannot be regulated based on one specific outcome or scenario, as there is a myriad of possible scenarios its application can lead to. Many authors voice the growing concerns in society accompanying these characteristics (Cath, 2018; Floridi, 2018; Floridi et al., 2018; Perc et al., 2019), particularly regarding the pace of AI development, leading to its global dynamics often being compared to an arms race (Cave & ÓhÉigeartaigh, 2019). While, until the present, market power was defined by market share and pricing, it is now dependent on factors such as access to data and data ownership—which are necessary elements for implementing AI (Drexl, 2016, 2017) and pose a barrier for new companies wanting to enter the market (Drexl, 2016; Porter, 1980). Thereby, the bar for followers to enter the market constantly rises, while digital monopolies are on the rise—giving more power and data access to ever fewer people (Ciuriak, 2018; Watney, 2018). Therefore, the most powerful actors in AI research also happen to be some of the most prominent companies around the globe, such as IBM, Amazon, Google, and Facebook (Lee, 2018). Thus, competition in AI research is fierce, as significant margins and business opportunities are attracting companies (PwC, 2019) and the effective implementation of AI has become crucial for companies to stay on top of their competitors and even stay in business (MIT, 2019; Rose, 2019). A recent study by PriceWaterhouseCoopers (PwC) predicted that by 2030, AI will contribute an expected 15.7 trillion dollars to the global economy, with an expected 45% of total economic gains originating in AI- enhanced products (PwC, 2019). Among other factors, the lack of regulation in the market puts companies in the position of either having to adapt to the race to secure their position in the market and continue to stay in business, or to let competitors get the better of them (Cave & ÓhÉigeartaigh, 2019). In consequence, the market is prone to ethical dilemmas, especially since there are no official red flags in AI research and development (Pichai, 2020). While in many cases, such as the medical field, data usage and its implications are rather transparent (Llewellynn et al., 2017), this is not always the case (Faddoul et al., 2019). One well- known example of this dilemma happened with Cambridge Analytica, a company using Facebook profile data to analyse the political preferences of its users, and, as commissioned by a client, to actively influence the users’ voting behaviour (Faddoul et al., 2019). This violation realised by corporate actors touched the core of the modern world’s achievement of free will: democracy (Lomas, 2018). While some companies have voluntarily agreed not to engage in critical research,3 such as developing autonomous weapons, there is no legally binding document preventing their development (Future of Life, 2015; Pichai, 2020), and a growing number of initiatives call for not only robust AI but also a stronger common orientation to good (Future of Life, 2015). 3 In this context, the term ‘critical’ refers to advancements which potentially pose a direct threat to society, such as the development of autonomous weapons (Cihon, 2019; Future of Life, 2015). 1.2 Theoretical Foundations: Governing Artificial Intelligence 3 Still, so far, no regulatory institution exists to enforce global, continental, or regional governance standards of AI-based business models, processes, and products that are in accordance with societal concerns and moral expectations (Dafoe, 2018). Besides the per se reactive nature of regulatory bodies, this is because regulation and standard-setting have become increasingly difficult to implement, due to the complexity associated with these new dilemma structures (Dafoe, 2018). Further, corporations possess restricted access to the knowledge about the state of the art in technology (Ferraro et al., 2015), and current legislation and regulation lack the integration of data as a new market mechanism in law-making (Drexl, 2016; Wieland, 2018). Given the pace at which new technologies are entering the market and the fact that, by nature, regulation is developed reactively to the element it is designed to regulate. Current regulation is dealing poorly with the dilemmas coming with AI implementation (Askell et al., 2019; Dafoe, 2018), and does not consider data or a system based on data flow and is unable to integrate the logic of another system into legislation (Andriole, 2019; Wieland, 2018). Thus, companies being the main driver of the change coming with new tech- nologies are called on to take responsibility for their actions, mainly because of the rising visibility of the changes coming with AI adoption, but also due to the high information asymmetry between the public and private sector (Anderson et al., 2018; Askell et al., 2019). This also holds true for civil society, where research indicates the drastic barriers its representatives are facing in multi-stakeholder dialogues, due to particularly significant information asymmetry (Fassbender, 2020). Over the course of this book, I will show how companies can engage in a collab- orative approach, such as through self-regulatory approaches and multi-stakeholder dialogues, to minimise negative outcomes for society (Gruetzemacher, 2018; Rittel & Webber, 1973; Roberts, 2000). AI ethics play an essential role in the development of such governance measures, as they will help define ‘red flags’ and guiding principles for all actors involved (Dafoe, 2018). With this, I aim to contribute to the responsible adoption of AI, minimising the negative consequences associated with it, while still applying it to its best potential (Aliman & Kester, 2019; Gasser & Almeida, 2017). In doing so, it aims to provide, particularly for economic actors, the necessary tools to shape the future of AI adoption. 1.2 Theoretical Foundations: Governing Artificial Intelligence The rise of powerful AI will be either the best or the worst thing ever to happen to humanity. We do not yet know which. (Hawking, 2016)4 As stated, the expression ‘Artificial Intelligence’ is an umbrella term for technolo- gies and models that aim for machines to mimic human intelligence, which, when 4 BBC News, 2016. 4 1 Introduction and Theoretical Foundations applied, can transform whole industries, economies, and society (Makridakis, 2017; Schwab & Davis, 2018). The development and rise of AI can be traced back to a few decisive factors that arose over recent decades. For one, computational power increased, which had an especially drastic influence on AI research. Moreover, the availability of big data grew dramatically over the last decades (Caulfield, 2009; Stolkel-Walker, 2018). 1.2.1 Artificial Intelligence The progress made in research on Artificial Intelligence was enabled by and is part of a bigger phenomenon; namely, the digital transformation. According to Parviainen et al. (2017), the term ‘digital transformation’ is defined as “changes in ways of working, roles, and business offering caused by adoption of digital technologies in an organization, or in the operation environment of the organization ” (2017, p. 16). Among others, Stolterman and Fors (2004) are convinced that “digital transformation can be understood as the changes that the digital technology causes or influences in all aspects of human life ” (2004, p. 689). A digital technology is defined as a machine or electronic device based on digital signals (Dyer & Harms, 1993), such as a computer, which is, again, defined as a machine that can be controlled and used efficiently by instructing it to follow a specific function. This instruction can come in the form of an algorithm, developed to solve the problem statement, and translated to a computer language to make it applicable to a machine (Bishop, 2006; Samuel, 1959). AI in its operationalised form, i.e., machine learning, is the software that can be applied to a digital machine, with the algorithm being its smallest entity (Awad & Khanna, 2015). However, AI is more than the mere application of a finite set of instructions to a machine (Brundage et al., 2018). 1.2.1.1 Scope of Artificial Intelligence To gain a deeper understanding of AI and its governance, the main technology types— machine learning, artificial neural networks (ANNs), and deep learning5 —and their interconnections, as depicted in Fig. 1.1, will be analysed in this book. The modern phase of AI development started around 2010, with the ongoing commercialisation of the technologies and their application outside laboratories. The main technologies stemming from this era are advanced machine learning, natural language processing, and ANNs (Nilsson, 2009). Machine learning is an umbrella term for a certain type of algorithm, namely learning algorithms, able to learn from experience or repetition. After going through 5 Abbreviations will only be used within the main body of the book, not when first introducing the concepts.
چکیده فارسی
فصل 1 مقدمه و مبانی نظری لیبرالیسم همیشه برابری سیاسی را گرامی می داشت و به تدریج متوجه شد که برابری اقتصادی تقریباً به همان اندازه مهم است. زیرا بدون شبکه امنیت اجتماعی و مقداری برابری اقتصادی، آزادی بی معنی است. اما همانطور که الگوریتم های کلان داده ممکن است آزادی را خاموش کنند، ممکن است همزمان نابرابرترین جوامعی را که تا به حال وجود داشته اند ایجاد کنند. همه ثروت و قدرت ممکن است در دستان نخبگان کوچک متمرکز شود، در حالی که بیشتر مردم نه از استثمار، بلکه از چیزی به مراتب بدتر - بی ربط بودن رنج خواهند برد (Harari, 2018, 3, p. 74). بیش از هر زمان دیگری، ما خود را در دوره ای از تغییرات بزرگ می یابیم که با سرعتی ناشناخته اتفاق می افتد (هارینگتون، 2018)، و با به اصطلاح فناوری های دیجیتال نمایی مواجه هستیم (مور، 2006). با در دسترس قرار گرفتن اینها برای اقتصاد، پتانسیل مخرب واقعی آنها آشکار می شود (لئونارد و فون کوسپوت، 2017) و این تأثیر موجی بر بخش های مختلف، صنایع و کل مدل های کسب و کار دارد (Parviainen et al., 2017; Schwab, 20161; استولترمن و فورس، 2004). به طور خاص، هوش مصنوعی (AI) تنها تأثیرگذارترین و مخرب ترین عامل برای اقتصادها و جوامع جهانی در قرن بیست و یکم و محرک احتمالی انقلاب (صنعتی) بعدی تخمین زده می شود (Goli'c, 2019؛ Makridakis). ، 2017؛ Paschek و همکاران، 2019؛ Pathak و همکاران، 2019). 1.1 ملاحظات مقدماتی در این کتاب، من هوش مصنوعی را به عنوان یک اصطلاح جامع برای تمام فناوریهای توسعه یافته برای تجزیه و تحلیل و تفسیر مجموعههای بزرگ داده یا رویدادهای خاص، برای کمک به تصمیمگیری انسان و در نتیجه خودکارسازی تصمیمگیری و اقدامات انجام شده توسط ماشینها تعریف خواهم کرد (نیلسون) ، 2009)، به ویژه یادگیری ماشین، و همچنین پیشرفت های بیشتر مانند شبکه های عصبی مصنوعی (ANN) و یادگیری عمیق. 2 1 قدرت محاسباتی به عنوان نیروی اصلی برای انقلاب صنعتی سوم شناخته می شود. 2 مفاهیم ذکر شده بیشتر در فصل 2 مورد بحث قرار خواهند گرفت. .org/10.1007/978-3-031-25023-1_1 1 2 1 مقدمه و مبانی نظری با توجه به ماهیت قابل انطباق هوش مصنوعی، یک فناوری یا محصول خاص نیست، بلکه ابزاری است که برای مدلها، فرآیندها و بیشمار کسبوکار موجود قابل استفاده است. نمی توان آن را بر اساس یک نتیجه یا سناریو خاص تنظیم کرد، زیرا سناریوهای احتمالی بی شماری وجود دارد که کاربرد آن می تواند منجر به آن شود. بسیاری از نویسندگان نگرانی های فزاینده ای را در جامعه به همراه این ویژگی ها بیان می کنند (کت، 2018؛ فلوریدی، 2018؛ فلوریدی و همکاران، 2018؛ پرک و همکاران، 2019)، به ویژه در مورد سرعت توسعه هوش مصنوعی، که منجر به پویایی جهانی آن می شود. در مقایسه با یک مسابقه تسلیحاتی (Cave & ÓhÉigeartaigh، 2019). در حالی که تا کنون، قدرت بازار با سهم بازار و قیمت گذاری تعریف می شد، اکنون به عواملی مانند دسترسی به داده ها و مالکیت داده ها وابسته است - که عناصر ضروری برای پیاده سازی هوش مصنوعی هستند (Drexl, 2016, 2017) و مانعی برای آن ایجاد می کنند. شرکت های جدیدی که می خواهند وارد بازار شوند (درکسل، 2016؛ پورتر، 1980). به این ترتیب، محدودیتها برای ورود دنبالکنندگان به بازار دائماً بالا میرود، در حالی که انحصارات دیجیتال در حال افزایش هستند - قدرت و دسترسی بیشتری به دادهها به افراد کمتری میدهد (سیوریاک، 2018؛ واتنی، 2018). بنابراین، قدرتمندترین بازیگران در تحقیقات هوش مصنوعی نیز برخی از برجستهترین شرکتها در سراسر جهان هستند، مانند IBM، آمازون، گوگل و فیسبوک (لی، 2018). بنابراین، رقابت در تحقیقات هوش مصنوعی شدید است، زیرا حاشیههای قابل توجه و فرصتهای تجاری در حال جذب شرکتها هستند (PwC، 2019) و اجرای موثر هوش مصنوعی برای شرکتها برای ماندن در صدر رقبای خود و حتی ماندن در تجارت بسیار مهم شده است (MIT، 2019). رز، 2019). مطالعه اخیر توسط PriceWaterhouseCoopers (PwC) پیشبینی کرد که تا سال 2030، هوش مصنوعی 15.7 تریلیون دلار به اقتصاد جهانی کمک خواهد کرد که انتظار میرود 45 درصد از کل سود اقتصادی ناشی از محصولات تقویتشده با هوش مصنوعی باشد (PwC، 2019). از جمله عوامل دیگر، فقدان مقررات در بازار، شرکتها را در موقعیتی قرار میدهد که یا مجبور باشند خود را با مسابقه تطبیق دهند تا موقعیت خود را در بازار حفظ کنند و در تجارت ادامه دهند، یا به رقبا اجازه دهند که از آنها بهتر استفاده کنند (Cave & ÓhÉigeartaigh، 2019). در نتیجه، بازار مستعد معضلات اخلاقی است، به ویژه از آنجایی که هیچ پرچم قرمز رسمی در تحقیق و توسعه هوش مصنوعی وجود ندارد (پیچای، 2020). در حالی که در بسیاری از موارد، مانند حوزه پزشکی، استفاده از داده ها و پیامدهای آن نسبتاً شفاف هستند (Llewellynn et al., 2017)، همیشه اینطور نیست (Faddoul et al., 2019). یکی از نمونه های شناخته شده این معضل با کمبریج آنالیتیکا اتفاق افتاد، شرکتی که از داده های نمایه فیس بوک برای تجزیه و تحلیل ترجیحات سیاسی کاربرانش استفاده می کند و به سفارش مشتری، فعالانه بر رفتار رأی گیری کاربران تأثیر می گذارد (فادول و همکاران، 2019). این نقض که توسط بازیگران شرکتی متوجه شد، هسته اصلی دستاوردهای آزادی اراده جهان مدرن را لمس کرد: دموکراسی (لوماس، 2018). در حالی که برخی از شرکتها داوطلبانه موافقت کردهاند که در تحقیقات حیاتی، مانند توسعه سلاحهای خودمختار، شرکت نکنند، هیچ سند الزامآور قانونی وجود ندارد که مانع از توسعه آنها شود (آینده زندگی، 2015؛ پیچای، 2020)، و تعداد فزایندهای از ابتکارات خواستار عدم توسعه آنها هستند. فقط هوش مصنوعی قوی، بلکه یک جهت گیری مشترک قوی تر به سمت خوب (آینده زندگی، 2015). 3 در این زمینه، اصطلاح «بحرانی» به پیشرفت هایی اشاره دارد که به طور بالقوه تهدیدی مستقیم برای جامعه هستند، مانند توسعه سلاح های خودمختار (Cihon, 2019؛ Future of Life, 2015). 1.2 مبانی نظری: حاکم بر هوش مصنوعی 3 هنوز، تاکنون، هیچ نهاد نظارتی برای اجرای استانداردهای حاکمیت جهانی، قارهای یا منطقهای مدلهای کسبوکار، فرآیندها و محصولات مبتنی بر هوش مصنوعی وجود ندارد که مطابق با نگرانیهای اجتماعی و انتظارات اخلاقی باشد (دافو). ، 2018). علاوه بر ماهیت واکنشی نهادهای نظارتی، این به این دلیل است که اجرای مقررات و استانداردها به دلیل پیچیدگی مرتبط با این ساختارهای معضل جدید، به طور فزاینده ای دشوار شده است (دافو، 2018). علاوه بر این، شرکتها دسترسی محدودی به دانش در مورد وضعیت هنر در فناوری دارند (فرارو و همکاران، 2015)، و قوانین و مقررات فعلی فاقد ادغام دادهها به عنوان مکانیزم بازار جدید در قانونگذاری هستند (Drexl, 2016; ویلند، 2018). با توجه به سرعت ورود فنآوریهای جدید به بازار و این واقعیت که طبیعتاً مقررات به صورت واکنشی نسبت به عنصری که برای تنظیم آن طراحی شده است توسعه مییابد. مقررات فعلی با معضلات ناشی از اجرای هوش مصنوعی برخورد ضعیفی دارد (Askell et al., 2019; Dafoe, 2018) و داده ها یا یک سیستم مبتنی بر جریان داده را در نظر نمی گیرد و قادر به ادغام منطق یک سیستم دیگر در قانون نیست. آندریول، 2019؛ ویلند، 2018). بنابراین، شرکتهایی که محرک اصلی تغییراتی هستند که با فناوریهای جدید بهوجود میآیند، عمدتاً به دلیل افزایش دید تغییرات ناشی از پذیرش هوش مصنوعی، و همچنین به دلیل عدم تقارن اطلاعاتی بالا بین بخش عمومی و خصوصی (اندرسون و همکاران، 2018؛ آسکل و همکاران، 2019). این موضوع برای جامعه مدنی نیز صادق است، جایی که تحقیقات نشان میدهد که نمایندگان آن با موانع شدیدی در گفتوگوهای چندجانبه، به دلیل عدم تقارن اطلاعاتی قابل توجه با آن مواجه هستند (فاسبندر، 2020). در طول این کتاب، من نشان خواهم داد که چگونه شرکتها میتوانند در یک رویکرد مشارکتی، از جمله از طریق رویکردهای خودتنظیمی و گفتگوهای چند ذینفع، برای به حداقل رساندن پیامدهای منفی برای جامعه مشارکت کنند (گروتزماچر، 2018؛ رایتل و وبر، 1973). رابرتز، 2000). اخلاق هوش مصنوعی نقش اساسی در توسعه چنین اقدامات حاکمیتی ایفا می کند، زیرا به تعریف «پرچم های قرمز» و اصول راهنما برای همه بازیگران درگیر کمک می کند (Dafoe, 2018). با این کار، من قصد دارم در پذیرش مسئولانه هوش مصنوعی، به حداقل رساندن پیامدهای منفی مرتبط با آن، و در عین حال استفاده از آن در بهترین پتانسیل خود، مشارکت کنم (Aliman & Kester, 2019؛ Gasser & Almeida, 2017). در انجام این کار، هدف آن فراهم کردن ابزارهای لازم برای شکل دادن به آینده پذیرش هوش مصنوعی، به ویژه برای فعالان اقتصادی است. 1.2 مبانی نظری: حاکم بر هوش مصنوعی ظهور هوش مصنوعی قدرتمند بهترین یا بدترین اتفاقی است که تا به حال برای بشریت رخ داده است. ما هنوز نمی دانیم کدام است. (هاوکینگ، 2016)4 همانطور که گفته شد، عبارت «هوش مصنوعی» یک اصطلاح چتر برای فناوریها و مدلهایی است که هدف آن ماشینها تقلید از هوش انسانی است، که وقتی 4 بیبیسی نیوز، 2016. 4 1 مقدمه و مبانی نظری اعمال شد. می تواند کل صنایع، اقتصادها و جامعه را متحول کند (Makridakis, 2017؛ Schwab & Davis, 2018). توسعه و ظهور هوش مصنوعی را می توان در چند عامل تعیین کننده که در دهه های اخیر به وجود آمدند، ردیابی کرد. برای نمونه، قدرت محاسباتی افزایش یافت، که تأثیر شدیدی بر تحقیقات هوش مصنوعی داشت. علاوه بر این، در دسترس بودن کلان داده ها در دهه های گذشته به طرز چشمگیری افزایش یافته است (کالفیلد، 2009؛ استولکل-واکر، 2018). 1.2.1 هوش مصنوعی پیشرفت در تحقیق در مورد هوش مصنوعی توسط یک پدیده بزرگتر امکان پذیر شد و بخشی از آن است. یعنی تحول دیجیتال. به گفته پروینن و همکاران. (2017)، اصطلاح "تحول دیجیتال" به عنوان "تغییر در شیوه های کار، نقش ها، و ارائه کسب و کار ناشی از پذیرش فناوری های دیجیتال در یک سازمان، یا در محیط عملیاتی سازمان" (2017، ص 16) تعریف می شود. ). در میان دیگران، استولترمن و فورس (2004) متقاعد شده اند که "تحول دیجیتال را می توان به عنوان تغییراتی که فناوری دیجیتال در تمام جنبه های زندگی انسان ایجاد یا تحت تاثیر قرار می دهد" درک کرد (2004، ص 689). فن آوری دیجیتال به عنوان یک ماشین یا دستگاه الکترونیکی مبتنی بر سیگنال های دیجیتالی تعریف می شود (Dyer & Harms, 1993) مانند کامپیوتر که مجدداً به عنوان ماشینی تعریف می شود که می تواند با دستور دادن به آن به طور موثر کنترل و استفاده شود. عملکرد خاص این دستورالعمل می تواند به شکل یک الگوریتم باشد که برای حل بیان مسئله توسعه یافته و به یک زبان کامپیوتر ترجمه شده تا آن را برای یک ماشین قابل اجرا کند (بیشاپ، 2006؛ ساموئل، 1959). هوش مصنوعی در شکل عملیاتیشدهاش، یعنی یادگیری ماشین، نرمافزاری است که میتواند روی یک ماشین دیجیتال اعمال شود و الگوریتم کوچکترین موجودیت آن است (Awad & Khanna, 2015). با این حال، هوش مصنوعی چیزی فراتر از کاربرد صرف مجموعهای محدود از دستورالعملها برای یک ماشین است (Brundage et al., 2018). 1.2.1.1 دامنه هوش مصنوعی برای به دست آوردن درک عمیق تر از هوش مصنوعی و حاکمیت آن، انواع فناوری اصلی - یادگیری ماشین، شبکه های عصبی مصنوعی (ANN ها) و یادگیری عمیق 5 - و ارتباطات متقابل آنها، همانطور که در شکل 1.1 نشان داده شده است، ارائه خواهد شد. در این کتاب تحلیل شده است. مرحله مدرن توسعه هوش مصنوعی در حدود سال 2010 با تجاری سازی مداوم فناوری ها و کاربرد آنها در خارج از آزمایشگاه ها آغاز شد. فناوریهای اصلی ناشی از این دوره یادگیری ماشینی پیشرفته، پردازش زبان طبیعی و شبکههای عصبی مصنوعی (Nilsson, 2009) است. یادگیری ماشینی اصطلاحی است برای نوع خاصی از الگوریتم ها، یعنی الگوریتم های یادگیری که می توانند از تجربه یا تکرار یاد بگیرند. پس از گذراندن 5 اختصار، فقط در قسمت اصلی کتاب استفاده می شود، نه در اولین معرفی مفاهیم.
ادامه ...
بستن ...