نوع مقاله : مقاله پژوهشی

نویسندگان

1 دکتری حقوق بین‌الملل عمومی، پسادکتری دانشکده علوم خانواده دانشگاه تهران، تهران، ایران.

2 استادیار گروه حقوق بین‌الملل عمومی دانشگاه آزاد اسلامی واحد تهران شمال، تهران، ایران.

10.22091/cpl.2024.10419.1016

چکیده

فلسفه حقوق به بحث از معنا و مبنای الزام‌آور بودن قواعد حقوقی و تمایز قواعد مزبور با اخلاق و مذهب دارد. ترکیب فلسفه با حقوق، علمی بودن حقوق را نوید می‌دهد. فلسفه به‌عنوان مادر علوم، مبانی فکری و زیربنای حوزه علمی را غنا می‌بخشد. در بررسی تطبیقی حاضر، سه دیدگاه فلسفی در رابطه با حقوق فناوری‌های نوین و واقعیات مسلم جامعه معاصر، با رویکردی انتقادی- تحلیلی مورد بحث است: 1. فناوری به‌مثابه نیرویی مستقل که مقتضیات جامعه را تعیین می‌دارد؛ 2. فناوری به‌مثابه سازه مصنوع دست بشر که می‌تواند از طریق ارزش‌های شکل گرفته انسانی ایجاد شود؛ 3. دیدگاه تکاملی و مشترک در مورد ارتباط فناوری و جامعه که واقعیات و ارزش‌های نوظهور را تسریع می‌دارد. بررسی تطبیقی حاضر این سه دیدگاه را مورد واکاوی قرار می‌دهد و ضمن آن استدلال می‌شود که همچنان سه رویکرد فوق، در خصوص تغییرات فناوری و تأثیر آن بر جامعه انکارناپذیرند. این مسئله در مورد هوش مصنوعی و حقوق حاکم بر آن نیز صادق است. از آنجا که رابطه حقوق و فناوری، امری پیچیده و چندوجهی است، ظهور هوش مصنوعی چالش‌های حقوقی بی‌شماری را سبب گردیده که ابعاد فلسفی این رابطه، سه نوع رویکرد عمل‌گرایانه را برای تنظیم قواعد حقوقی میان افراد جامعه تبیین داشته که مهم‌ترین آن تأثیرات فناوری در تغییر زندگی امروز بشر است که تغییرات حقوق نوین و قواعد نوظهور را به سبب آن می‌طلبد.

تازه های تحقیق

به نظر چنین می‌رسد رهیافت هوش مصنوعی از بعد فلسفی از نشانه گرایی به سوی عقل‌گرایی و درنهایت عینی‌گرایی پوزیتیویسم سوق یافته است و همان‌طور که اواسط قرن بیستم رشد چشمگیر فناوری این مفروض را پدید آورد که اندک‌اندک هوش مصنوعی به مسئله‌ای تبدیل می‌گردد که باب بحث‌های فلسفی و حقوقی را بروی خود می‌گشاید. به‌طور کلی سه قرائت یا رهیافت فلسفی مورد بحث افت‌وخیزهایی را به دنبال داشته که تلقی خاص ذهن انسان و رابطه آن با هوش فناوری نوین را که مسبوق به نشانه گرایی در احراز ذوات اشیا بوده و مفاهمه نشانه‌ها را صرفاً توجیه‌پذیر می‌نمود به سوی عقل محوری دیدگاه فلسفی و شناخت گرایی معرفت ذهن انسان پیش برد. این امر تا جایی مناط اعتبار است که تکامل مشترک انسان و فناوری را بدون غلبه یکی بر دیگری حادث نماید و چالش‌های اخلاقی ظهور فناوری‌های نوین را تحت کنترل مؤثر بشر قرار دهد. در این میان تنظیم‌گری مقررات از طریق دولت‌های تنظیم‌گر می‌تواند از نقض حقوق بشر بنیادین در برابر آماج مخاطرات حقوق مصنوعی محافظت نماید تکلیف دولت‌ها به تدوین برنامه‌های ملی توسعه هوش مصنوعی می‌تواند تحول‌آفرینی فناوری را با فراهم نمودن دانش و زیرساخت‌های دانش فنی، اجتماعی، اخلاقی و حقوقی با افزایش ترویج آگاهی از کارکردهای هوش مصنوعی فراهم آورند و زمینه‌های خطرات بالقوه این پتانسیل علم و فناوری را به حداقل ممکن رسانند و خلط اخلاق و فلسفه با حقوق را میسر بدارند.

کلیدواژه‌ها

عنوان مقاله [English]

The West’s Philosophical Foundations of NJBJGBQLNB HVGTF GHY Intelligence in Modern Technologies Law

نویسندگان [English]

  • Sima Hatami 1
  • fatollah rahimi 2

1 Ph. D. in Public International Law, Post Doc, University of Tehran, Iran.

2 Assistant Professor, Islamic Azad University, North Tehran Branch, Tehran, Iran.

چکیده [English]

It is highly believed that often the addition of philosophy to a science is the analytical and rational meaning of that science. The combination of philosophy and law promises the science of law. Philosophy, as the mother of science, enriches the intellectual foundations and basis of the scientific field. In this comparative study, there are three philosophical critical views regarding the law of modern technologies and the certain realities of contemporary society, as follows: 1) Technology as an independent force that meets the requirements of society determines 2) technology as a human construct that can be shaped by human values, and 3) a common evolutionary perspective on technology and society that accelerates emerging realities and values; the comparative analysis of these three perspectives is vividly discussed in this article. It is placed and it is argued that all three of the mentioned cases still have a great impact on technological changes and how they affect the society. This is also true for artificial intelligence.

کلیدواژه‌ها [English]

  • Technology
  • Philosophy
  • Value
  • Artificial Intelligence
حاتمی، سیما؛ رحیمی، فتح‌الله؛ آقا محمد آقایی، احسان؛ شاهسوندی، اسماعیل، (1402). «چالش‌های حقوقی سیستم‌های هویت بیومتریک در اجرای قانون و سیاست تشخیص صدا؛ مطالعه موردی: پروژه سیپ در اروپا»، حقوق فناوری‌های نوین، 4(8).
طهماسبی، محمدرضا، (1385). «رهیافت‌های بنیادین فلسفی در هوش مصنوعی»، حکمت و فلسفه، 2(6).
مارکوزه، هربرت؛ (1387). «انسان تک ساحتی»، ترجمه: محسن مؤیدی، تهران: نشر امیرکبیر.
عبدی پور، ابراهیم؛ مؤمن، مهراد، (1403). «تاملی بر چیستی منفعت عمومی (مطالعه تطبیقی از منظر حقوق عمومی اقتصادی)»، حقوق عمومی تطبیقی، 1(1).
هداوند، مهدی؛ جم، فرهاد، (1400) «مفهوم دولت تنظیم‌گر: تحلیل تنظیم‌گری به‌مثابه ابزار حکمرانی»، راهبرد، 30(99).
References
Asimov, I. I (1950) Robot. 1st ed. New York: Gnome Press.
Bergson, Henry (1911) Creative Evolution, digital library of India item, Internet Archive,https;//archive. org/detail/in. ernet. dil. 2015. 616
Bijker, W, (1995) Of Bicycles, Bakelite, and Bulbs: Toward a Theory of Sociotechnical Change. Cambridge: MIT Press.
Bijker, W, T. P. Hughes, & T. Pinch (1987). The Social Construction of Technological Systems: New Directions in the Sociology and History of Technology. Cambridge: MIT Press.
 Bostrom, N (2016), Superintelligence: Paths, Dangers, Strategies. Oxford and New York: Oxford University Press.
Cellan-Jones, R (2014) Stephen Hawking Warns Artificial Intelligence Could end Mankind. BBC. https: //www. bbc. com/news/technology-30290540.
Chukwujekwu,Stephen Chijioke &Ewelu Benjamin Ikechukwu (2020) A Critique of Martin Heidegger’s Philosophy of Technology: Towards The Need For Appropriate Technology, Nnadiebube J         ournal of Philosophy,vol4(1)
Ellul, J (1964) The technological society (J. Wilkinson, Trans. ) New York: Alfred A. Knopf (Original edition, La Technique)
Habermas, J (1968) Technik und Wissenschaft als “Ideologie”. [Technology and science as“ideology”]. Frankfurt: Surhrkamp.
Heidegger, M (2019) Die Technik und die Kehre. [Technology and the Turn]. Pfullingen: Neske. High-Level Expert Group on AI. Ethics guidelines for trustworthy AI. Brussels: EC (1962) https: //ec. europa. eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.
Joy, B (2000) Why the future doesn’t need us. Wired, April 2000, 238–262.
Mumford, L (1934/1963) Technics and civilization. New York: Harcourt Brace Jovanovich.
Mumford, L (1967) The myth of the machine. 1st ed. 2 vols. New York: Harcourt.
Rip, A. & Kemp, R (1998) Technological change. In S. Rayner & E. L. Malone (Eds. ) (1967) Human choice and climate change (pp. 327–399) Columbus, Ohio: Battelle Press.
Rip, A. , Misa, T. J. , & Schot, J (1995) Managing technology in society: The approach of constructive technology assessment. London and New York: Pinter.
Shelley, M. W (1818) Frankenstein; or, the Modern Prometheus. London: Lackington, Hughes,Harding, Mavor, & Jones.
Smith, M. R (1994) Technological determinism in American culture. In M. R. Smith and L. Marx(Eds. ), Does technology drive history? The dilemma of technological determinism (pp. 1–35) Cambridge (Ma. ) and London: MIT Press.
Swierstra, T (2013) Nanotechnology and technomoral change. Etica & Politica / Ethics & Politics, XV(1), 200–219.
Van de Poel, I (2003) The transformation of technological regimes. Research Policy 32(1), 49–68.
 Van de Poel, I (2016) An ethical framework for evaluating experimental technology. Science and Engineering Ethics, 22(3), 667–686. doi: 10. 1007/s11948-015-9724-3.
Van de Poel, I (2018a) Design for value change. Ethics and Information Technology. doi: 10. 1007/s10676-018-9461-9.
Van de Poel, I (2018b) Moral experimentation with new technology. In I. Van de Poel, D. C. Mehos& L. Asveld (Eds. ), New perspectives on technology in society: Experimentation beyond thelaboratory (pp. 59–79) Oxford and New York: Routledge.
Van den Hoven, J. , Lokhorst, G. -J. , & Van de Poel, I (2012) Engineering and the problem of moral overload. Science and Engineering Ethics, 18(1), 143–155. doi: 10. 1007/s11948-011-9277-z.
Van den Hoven, J. , Vermaas, P. E. , & Van de Poel, I (2015) Handbook of ethics and values in technological design. Sources, theory, values and application domains. Dordrecht: Springer.
Van Wynsberghe, A. , & Robbins,S (2019) Critiquing the reasons for making artificial moral agents. Science and Engineering Ethics, 25(3), 719–735. doi: 10. 1007/s11948-018-0030-8.
Varela, F. J (1992) Whence perceptual meaning? A cartography of current ideas. In: Varela, F. J. , Dupuy, J. -P (1992) Understanding Origins – Contemporary Views on the Origin of Life, Mind and Society. Boston Studies in the Philosophy of Science,pp. 235–263. Kluwer Academic Publishers, Dordrecht.
Verbeek, P. -P (2011) Moralizing technology: Understanding and designing the morality of things. Chicago; London: The University of Chicago Press.
Wachter, S. , Mittelstadt, B. D. M. , & Russell, C (2018) Counterfactual explanations without openingthe black box: Automated decisions and the GDPR. Harvard Journal of Law and Technology,31(2), 841–887.
Winner, L (1977) Autonomous technology. Technics-out-of-control as a theme in political thought. Cambridge (MA): MIT Press.
 Winner, L (1980) Do artifacts have politics? Daedalus, (109), 121–136.
Winner, L (1986) The whale and the reactor; A search for the limits in an age of high technology. Chicago and London: The University of Chicago Press.