Skip to content

Commit 830b44d

Browse files
committed
Update text-gen
1 parent c8817e9 commit 830b44d

File tree

1 file changed

+22
-33
lines changed

1 file changed

+22
-33
lines changed

Projects/AI 영어대화/ASR_re.ipynb

Lines changed: 22 additions & 33 deletions
Original file line numberDiff line numberDiff line change
@@ -117,7 +117,7 @@
117117
},
118118
{
119119
"cell_type": "code",
120-
"execution_count": 2,
120+
"execution_count": 1,
121121
"metadata": {},
122122
"outputs": [],
123123
"source": [
@@ -132,7 +132,7 @@
132132
},
133133
{
134134
"cell_type": "code",
135-
"execution_count": 5,
135+
"execution_count": 2,
136136
"metadata": {},
137137
"outputs": [],
138138
"source": [
@@ -211,13 +211,13 @@
211211
},
212212
{
213213
"cell_type": "code",
214-
"execution_count": 6,
214+
"execution_count": 3,
215215
"metadata": {},
216216
"outputs": [
217217
{
218218
"data": {
219219
"application/vnd.jupyter.widget-view+json": {
220-
"model_id": "09b03a8d3eda4528886536386846475b",
220+
"model_id": "f8c10f91754041029d307cb9745e761c",
221221
"version_major": 2,
222222
"version_minor": 0
223223
},
@@ -231,7 +231,7 @@
231231
{
232232
"data": {
233233
"application/vnd.jupyter.widget-view+json": {
234-
"model_id": "61a4f068b0114f9cafa0ee880c90209e",
234+
"model_id": "5f3e10341d67458f89579f9b027b6d92",
235235
"version_major": 2,
236236
"version_minor": 0
237237
},
@@ -245,7 +245,7 @@
245245
{
246246
"data": {
247247
"application/vnd.jupyter.widget-view+json": {
248-
"model_id": "cb4bab95308c4e3a93acf76e614e2b0d",
248+
"model_id": "c10c6305100a465b89a810e20ef0edd7",
249249
"version_major": 2,
250250
"version_minor": 0
251251
},
@@ -259,7 +259,7 @@
259259
{
260260
"data": {
261261
"application/vnd.jupyter.widget-view+json": {
262-
"model_id": "e253fb7d2ee94f4fa6c08eaea3c1a60c",
262+
"model_id": "9431585b60704006912dfe735be57542",
263263
"version_major": 2,
264264
"version_minor": 0
265265
},
@@ -273,7 +273,7 @@
273273
{
274274
"data": {
275275
"application/vnd.jupyter.widget-view+json": {
276-
"model_id": "d42c0f31a5a446419de494afaa837470",
276+
"model_id": "970714d48715463cae581faaad89fb26",
277277
"version_major": 2,
278278
"version_minor": 0
279279
},
@@ -311,7 +311,7 @@
311311
},
312312
{
313313
"cell_type": "code",
314-
"execution_count": 49,
314+
"execution_count": 4,
315315
"metadata": {},
316316
"outputs": [
317317
{
@@ -342,7 +342,7 @@
342342
},
343343
{
344344
"cell_type": "code",
345-
"execution_count": 59,
345+
"execution_count": 5,
346346
"metadata": {},
347347
"outputs": [
348348
{
@@ -392,26 +392,13 @@
392392
},
393393
{
394394
"cell_type": "code",
395-
"execution_count": null,
395+
"execution_count": 6,
396396
"metadata": {},
397-
"outputs": [
398-
{
399-
"name": "stderr",
400-
"output_type": "stream",
401-
"text": [
402-
"Due to a bug fix in https://github.com/huggingface/transformers/pull/28687 transcription using a multilingual Whisper will default to language detection followed by transcription instead of translation to English.This might be a breaking change for your use case. If you want to instead always translate your audio to English, make sure to pass `language='en'`.\n",
403-
"Passing a tuple of `past_key_values` is deprecated and will be removed in Transformers v4.43.0. You should pass an instance of `EncoderDecoderCache` instead, e.g. `past_key_values=EncoderDecoderCache.from_legacy_cache(past_key_values)`.\n",
404-
"c:\\Users\\win\\AppData\\Local\\pypoetry\\Cache\\virtualenvs\\ai_영어대화-HAZ4-uhy-py3.12\\Lib\\site-packages\\transformers\\generation\\configuration_utils.py:695: UserWarning: `num_beams` is set to 1. However, `length_penalty` is set to `1.3` -- this flag is only used in beam-based generation modes. You should set `num_beams>1` or unset `length_penalty`.\n",
405-
" warnings.warn(\n"
406-
]
407-
}
408-
],
397+
"outputs": [],
409398
"source": [
410399
"import torch\n",
411400
"from transformers import AutoModelForSpeechSeq2Seq, AutoProcessor, pipeline\n",
412401
"from datasets import load_dataset\n",
413-
"\n",
414-
"\n",
415402
"import torch\n",
416403
"# from transformers.models.whisper import EncoderDecoderCache\n",
417404
"\n",
@@ -436,7 +423,7 @@
436423
},
437424
{
438425
"cell_type": "code",
439-
"execution_count": 54,
426+
"execution_count": 7,
440427
"metadata": {},
441428
"outputs": [],
442429
"source": [
@@ -455,7 +442,7 @@
455442
" generates_ids = model.generate(\n",
456443
" input_features,\n",
457444
" # max_length=300,\n",
458-
" temperature=0.1, # 다양성\n",
445+
" temperature=0.3, # 다양성\n",
459446
" num_beams=2, # beam search를 사용한 텍스트 생성\n",
460447
" length_penalty=1.3, # 기본값 1, 긴 텍스트에 조금 더 유리하도록 설정\n",
461448
" attention_mask=attention_mask, # 입력 데이터에 대해 명시적으로 attention_mask 생성 후 전달\n",
@@ -467,13 +454,15 @@
467454
},
468455
{
469456
"cell_type": "code",
470-
"execution_count": 64,
457+
"execution_count": 8,
471458
"metadata": {},
472459
"outputs": [
473460
{
474461
"name": "stderr",
475462
"output_type": "stream",
476463
"text": [
464+
"Due to a bug fix in https://github.com/huggingface/transformers/pull/28687 transcription using a multilingual Whisper will default to language detection followed by transcription instead of translation to English.This might be a breaking change for your use case. If you want to instead always translate your audio to English, make sure to pass `language='en'`.\n",
465+
"Passing a tuple of `past_key_values` is deprecated and will be removed in Transformers v4.43.0. You should pass an instance of `EncoderDecoderCache` instead, e.g. `past_key_values=EncoderDecoderCache.from_legacy_cache(past_key_values)`.\n",
477466
"c:\\Users\\win\\AppData\\Local\\pypoetry\\Cache\\virtualenvs\\ai_영어대화-HAZ4-uhy-py3.12\\Lib\\site-packages\\transformers\\generation\\configuration_utils.py:695: UserWarning: `num_beams` is set to 1. However, `length_penalty` is set to `1.3` -- this flag is only used in beam-based generation modes. You should set `num_beams>1` or unset `length_penalty`.\n",
478467
" warnings.warn(\n"
479468
]
@@ -492,19 +481,19 @@
492481
},
493482
{
494483
"cell_type": "code",
495-
"execution_count": 65,
484+
"execution_count": 9,
496485
"metadata": {},
497486
"outputs": [
498487
{
499488
"data": {
500489
"text/plain": [
501-
"[' 이익을 얼마나 냈는지, 구독자가 얼마나 늘었는지, 내출이 어떻게 됐는지, 팔로워가 늘었는지, 아니면 내가 뭘 배웠는지까지 다 리조트에 들어가요. 그래서 이게 SDAI 스타일맨소드이고, 여기서 제가 아까 말씀드렸던, 취업을 잘하는 학생들의 학교 차이는, 그래서 이 경험으로 내가 이 회사의 이 비정화와 어떻게 매치시킬 건지까지 얘기합니다.',\n",
502-
" ' 아, 면접을 보다 보면 이 정도로 얘기를 하면 사실은 아까 STAR을 얘기하는 동안 쟤는 어떤 애구나 알게 되는 것인데 마지막에 나에게 다 했으니까 당신에서 내가 알고 있어요. 맞아 떨어지는 거지 아는 두 가지가 맞아 떨어지면 진짜 아는 거지 여기서 또 중요한 게 하나 더 있는데 마인드즈시거든요. 마인드즈시 뭐냐면 여기 아니어도 돼.',\n",
503-
" ' 아, 저의 기관은?',\n",
490+
"[' 이익을 얼마나 낸는지, 구독자가 얼마나 늘었는지, 매출이 어떻게 됐는지, 팔로워가 늘었는지, 아니면 내가 뭘 배웠는지까지 다 리조트에 들어가요. 그래서 이게 SDAI 스타일메소드이고, 여기서 제가 아까 말씀드렸던, 취업을 잘하는 학생들의 학교 차이는 그래서 이 경험으로 내가 이 회사의 이 비정화와 어떻게 매치시킬 건지까지',\n",
491+
" ' 아, 성경을 잘해야 돼',\n",
492+
" ' 이 시원이랑 나랑 맞춰서 반드시 여기 가야 돼요 그럼 안돼 절박하면 안 돼 절박하면 티나고 절박한 사람은 사실 안 보고도',\n",
504493
" ' you']"
505494
]
506495
},
507-
"execution_count": 65,
496+
"execution_count": 9,
508497
"metadata": {},
509498
"output_type": "execute_result"
510499
}

0 commit comments

Comments
 (0)