تعداد نشریات | 25 |
تعداد شمارهها | 938 |
تعداد مقالات | 7,697 |
تعداد مشاهده مقاله | 12,624,739 |
تعداد دریافت فایل اصل مقاله | 8,986,812 |
پیشبینی شناسایی نوای هیجانی گفتار زبان ناآشنا بر اساس شناسایی هیجان چهره با توجه به نقش میانجی جنسیت در فارسیزبانان | ||
زبان پژوهی | ||
مقالات آماده انتشار، اصلاح شده برای چاپ، انتشار آنلاین از تاریخ 18 آذر 1403 | ||
نوع مقاله: مقاله پژوهشی | ||
شناسه دیجیتال (DOI): 10.22051/jlr.2024.47160.2433 | ||
نویسندگان | ||
سوسن علیزاده فرد* ؛ بلقیس روشن؛ شیما غفاریان | ||
دانشگاه پیام نور | ||
چکیده | ||
درک و شناخت احساسات دیگران عامل مهمی در تعاملات اجتماعی است و کمبود این توانایی بر کیفیت ارتباطات تأثیر میگذارد. به دلیل عدم دسترسی مستقیم به ذهن دیگران، برای استنباط احساس دیگران به منابع غیرمستقیم اطلاعات مثل زبان بدن، هیجانهای چهره و صدا تکیه میکنیم. بنابراین پژوهش حاضر با هدف پیشبینی شناسایی نوای هیجانی گفتار زبان ناآشنا براساس درک هیجان چهره با توجه به متغیر میانجی جنسیت در فارسیزبانان انجام گرفت. طرح پژوهش کاربردی از نوع توصیفی- همبستگی و جامعة آماری، فارسیزبانان 20 تا 40 سال شهر تهران بود. دویست فارسیزبان به روش نمونة در دسترس انتخاب شدند تا تکلیفی مبتنی بر رایانه که حاوی دو بخش شنیداری و دیداری بود را انجام دهند. افراد نمونه ابتدا هیجان گوینده در جملات دارای شش هیجان اصلی به زبانی ناآشنا و سپس هیجان تصویر چهره را مشخص کردند. براساس دادههای حاصل، ابتدا شاخصهای توصیفی میانگین و انحراف استاندارد محاسبه و سپس فرضیات تحقیق با روش تحلیل رگرسیون با استفاده از نرمافزار SPSS-21 مورد تجزیه تحلیل قرار گرفت. یافتههای پژوهش نشانداد که درک هیجان چهره بهطور معناداری درک هیجان گفتار را پیشبینی میکند(p<0/05). بررسی متغیر میانجی جنسیت نیز، مشخص کرد که شناسایی نوای هیجانی گفتار توسط شرکتکنندگان بر اساس جنسیت آنها متفاوت بود یعنی با افزایش درک هیجان چهره، درک هیجان گفتار در زنان بیشتر از مردان افزایش یافت. نتایج این پژوهش نشان داد که درک هیجان چهره میتواند به ما در پیشبینی شناسایی نوای هیجانی گفتار کمک کند. همچنین، متغیر جنسیت نیز میتواند تأثیری در این رابطه داشته باشد. | ||
کلیدواژهها | ||
نوای هیجانی گفتار؛ شناسایی هیجان چهره؛ جنسیت؛ فارسیزبانان | ||
عنوان مقاله [English] | ||
Predicting the recognition of emotional prosody of speech an unfamiliar language based on facial emotional perception and mediation role of gender in Persian speakers. | ||
نویسندگان [English] | ||
susan alizadehfard؛ belghis rovshan؛ shima ghafarian | ||
Payame Noor University | ||
چکیده [English] | ||
the present study was conducted with the aim of predicting the recognition of emotional prosody of speech an unfamiliar language based on facial emotional perception and mediation role of gender in Persian speakers. The design of the applied research was descriptive-correlation and the statistical population was Persian speakers aged 20 to 40 years in Tehran. Two hundred Farsi-speaking people (100 women and 100 men) were selected by available sampling method to complete a computer-based task that contained both audio and visual parts. The sample subjects first determined the speaker’s emotional prosody of speech in the sentences with six main emotions in an unfamiliar language and then the emotion of the facial image. Based on the obtained data, first the descriptive indices of mean and standard deviation were calculated and then the research hypotheses were analyzed by regression analysis method using SPSS-21 software. The research findings showed that the perception of facial emotion significantly predicts the recognition of the emotional prosody of speech (p<0.05). Examining the mediating variable of gender also determined that the recognition of the emotional prosody of speech by the participants was different based on their gender, that is, with the increase in facial emotion perception, the perception of speech emotion increased in women more than in men. The results of this research showed that the perception of facial emotion can help us in predicting the recognition of the emotional prosody of speech. Also, the gender variable can also have an effect in this relationship. | ||
کلیدواژهها [English] | ||
emotional prosody of speech, facial emotional perception, gender, Persian speakers | ||
مراجع | ||
| ||
آمار تعداد مشاهده مقاله: 30 |