|
117 | 117 | },
|
118 | 118 | {
|
119 | 119 | "cell_type": "code",
|
120 |
| - "execution_count": 2, |
| 120 | + "execution_count": 1, |
121 | 121 | "metadata": {},
|
122 | 122 | "outputs": [],
|
123 | 123 | "source": [
|
|
132 | 132 | },
|
133 | 133 | {
|
134 | 134 | "cell_type": "code",
|
135 |
| - "execution_count": 5, |
| 135 | + "execution_count": 2, |
136 | 136 | "metadata": {},
|
137 | 137 | "outputs": [],
|
138 | 138 | "source": [
|
|
211 | 211 | },
|
212 | 212 | {
|
213 | 213 | "cell_type": "code",
|
214 |
| - "execution_count": 6, |
| 214 | + "execution_count": 3, |
215 | 215 | "metadata": {},
|
216 | 216 | "outputs": [
|
217 | 217 | {
|
218 | 218 | "data": {
|
219 | 219 | "application/vnd.jupyter.widget-view+json": {
|
220 |
| - "model_id": "09b03a8d3eda4528886536386846475b", |
| 220 | + "model_id": "f8c10f91754041029d307cb9745e761c", |
221 | 221 | "version_major": 2,
|
222 | 222 | "version_minor": 0
|
223 | 223 | },
|
|
231 | 231 | {
|
232 | 232 | "data": {
|
233 | 233 | "application/vnd.jupyter.widget-view+json": {
|
234 |
| - "model_id": "61a4f068b0114f9cafa0ee880c90209e", |
| 234 | + "model_id": "5f3e10341d67458f89579f9b027b6d92", |
235 | 235 | "version_major": 2,
|
236 | 236 | "version_minor": 0
|
237 | 237 | },
|
|
245 | 245 | {
|
246 | 246 | "data": {
|
247 | 247 | "application/vnd.jupyter.widget-view+json": {
|
248 |
| - "model_id": "cb4bab95308c4e3a93acf76e614e2b0d", |
| 248 | + "model_id": "c10c6305100a465b89a810e20ef0edd7", |
249 | 249 | "version_major": 2,
|
250 | 250 | "version_minor": 0
|
251 | 251 | },
|
|
259 | 259 | {
|
260 | 260 | "data": {
|
261 | 261 | "application/vnd.jupyter.widget-view+json": {
|
262 |
| - "model_id": "e253fb7d2ee94f4fa6c08eaea3c1a60c", |
| 262 | + "model_id": "9431585b60704006912dfe735be57542", |
263 | 263 | "version_major": 2,
|
264 | 264 | "version_minor": 0
|
265 | 265 | },
|
|
273 | 273 | {
|
274 | 274 | "data": {
|
275 | 275 | "application/vnd.jupyter.widget-view+json": {
|
276 |
| - "model_id": "d42c0f31a5a446419de494afaa837470", |
| 276 | + "model_id": "970714d48715463cae581faaad89fb26", |
277 | 277 | "version_major": 2,
|
278 | 278 | "version_minor": 0
|
279 | 279 | },
|
|
311 | 311 | },
|
312 | 312 | {
|
313 | 313 | "cell_type": "code",
|
314 |
| - "execution_count": 49, |
| 314 | + "execution_count": 4, |
315 | 315 | "metadata": {},
|
316 | 316 | "outputs": [
|
317 | 317 | {
|
|
342 | 342 | },
|
343 | 343 | {
|
344 | 344 | "cell_type": "code",
|
345 |
| - "execution_count": 59, |
| 345 | + "execution_count": 5, |
346 | 346 | "metadata": {},
|
347 | 347 | "outputs": [
|
348 | 348 | {
|
|
392 | 392 | },
|
393 | 393 | {
|
394 | 394 | "cell_type": "code",
|
395 |
| - "execution_count": null, |
| 395 | + "execution_count": 6, |
396 | 396 | "metadata": {},
|
397 |
| - "outputs": [ |
398 |
| - { |
399 |
| - "name": "stderr", |
400 |
| - "output_type": "stream", |
401 |
| - "text": [ |
402 |
| - "Due to a bug fix in https://github.com/huggingface/transformers/pull/28687 transcription using a multilingual Whisper will default to language detection followed by transcription instead of translation to English.This might be a breaking change for your use case. If you want to instead always translate your audio to English, make sure to pass `language='en'`.\n", |
403 |
| - "Passing a tuple of `past_key_values` is deprecated and will be removed in Transformers v4.43.0. You should pass an instance of `EncoderDecoderCache` instead, e.g. `past_key_values=EncoderDecoderCache.from_legacy_cache(past_key_values)`.\n", |
404 |
| - "c:\\Users\\win\\AppData\\Local\\pypoetry\\Cache\\virtualenvs\\ai_영어대화-HAZ4-uhy-py3.12\\Lib\\site-packages\\transformers\\generation\\configuration_utils.py:695: UserWarning: `num_beams` is set to 1. However, `length_penalty` is set to `1.3` -- this flag is only used in beam-based generation modes. You should set `num_beams>1` or unset `length_penalty`.\n", |
405 |
| - " warnings.warn(\n" |
406 |
| - ] |
407 |
| - } |
408 |
| - ], |
| 397 | + "outputs": [], |
409 | 398 | "source": [
|
410 | 399 | "import torch\n",
|
411 | 400 | "from transformers import AutoModelForSpeechSeq2Seq, AutoProcessor, pipeline\n",
|
412 | 401 | "from datasets import load_dataset\n",
|
413 |
| - "\n", |
414 |
| - "\n", |
415 | 402 | "import torch\n",
|
416 | 403 | "# from transformers.models.whisper import EncoderDecoderCache\n",
|
417 | 404 | "\n",
|
|
436 | 423 | },
|
437 | 424 | {
|
438 | 425 | "cell_type": "code",
|
439 |
| - "execution_count": 54, |
| 426 | + "execution_count": 7, |
440 | 427 | "metadata": {},
|
441 | 428 | "outputs": [],
|
442 | 429 | "source": [
|
|
455 | 442 | " generates_ids = model.generate(\n",
|
456 | 443 | " input_features,\n",
|
457 | 444 | " # max_length=300,\n",
|
458 |
| - " temperature=0.1, # 다양성\n", |
| 445 | + " temperature=0.3, # 다양성\n", |
459 | 446 | " num_beams=2, # beam search를 사용한 텍스트 생성\n",
|
460 | 447 | " length_penalty=1.3, # 기본값 1, 긴 텍스트에 조금 더 유리하도록 설정\n",
|
461 | 448 | " attention_mask=attention_mask, # 입력 데이터에 대해 명시적으로 attention_mask 생성 후 전달\n",
|
|
467 | 454 | },
|
468 | 455 | {
|
469 | 456 | "cell_type": "code",
|
470 |
| - "execution_count": 64, |
| 457 | + "execution_count": 8, |
471 | 458 | "metadata": {},
|
472 | 459 | "outputs": [
|
473 | 460 | {
|
474 | 461 | "name": "stderr",
|
475 | 462 | "output_type": "stream",
|
476 | 463 | "text": [
|
| 464 | + "Due to a bug fix in https://github.com/huggingface/transformers/pull/28687 transcription using a multilingual Whisper will default to language detection followed by transcription instead of translation to English.This might be a breaking change for your use case. If you want to instead always translate your audio to English, make sure to pass `language='en'`.\n", |
| 465 | + "Passing a tuple of `past_key_values` is deprecated and will be removed in Transformers v4.43.0. You should pass an instance of `EncoderDecoderCache` instead, e.g. `past_key_values=EncoderDecoderCache.from_legacy_cache(past_key_values)`.\n", |
477 | 466 | "c:\\Users\\win\\AppData\\Local\\pypoetry\\Cache\\virtualenvs\\ai_영어대화-HAZ4-uhy-py3.12\\Lib\\site-packages\\transformers\\generation\\configuration_utils.py:695: UserWarning: `num_beams` is set to 1. However, `length_penalty` is set to `1.3` -- this flag is only used in beam-based generation modes. You should set `num_beams>1` or unset `length_penalty`.\n",
|
478 | 467 | " warnings.warn(\n"
|
479 | 468 | ]
|
|
492 | 481 | },
|
493 | 482 | {
|
494 | 483 | "cell_type": "code",
|
495 |
| - "execution_count": 65, |
| 484 | + "execution_count": 9, |
496 | 485 | "metadata": {},
|
497 | 486 | "outputs": [
|
498 | 487 | {
|
499 | 488 | "data": {
|
500 | 489 | "text/plain": [
|
501 |
| - "[' 이익을 얼마나 냈는지, 구독자가 얼마나 늘었는지, 내출이 어떻게 됐는지, 팔로워가 늘었는지, 아니면 내가 뭘 배웠는지까지 다 리조트에 들어가요. 그래서 이게 SDAI 스타일맨소드이고, 여기서 제가 아까 말씀드렸던, 취업을 잘하는 학생들의 학교 차이는, 그래서 이 경험으로 내가 이 회사의 이 비정화와 어떻게 매치시킬 건지까지 얘기합니다.',\n", |
502 |
| - " ' 아, 면접을 보다 보면 이 정도로 얘기를 하면 사실은 아까 STAR을 얘기하는 동안 쟤는 어떤 애구나 알게 되는 것인데 마지막에 나에게 다 했으니까 당신에서 내가 알고 있어요. 맞아 떨어지는 거지 아는 두 가지가 맞아 떨어지면 진짜 아는 거지 여기서 또 중요한 게 하나 더 있는데 마인드즈시거든요. 마인드즈시 뭐냐면 여기 아니어도 돼.',\n", |
503 |
| - " ' 아, 저의 기관은?',\n", |
| 490 | + "[' 이익을 얼마나 낸는지, 구독자가 얼마나 늘었는지, 매출이 어떻게 됐는지, 팔로워가 늘었는지, 아니면 내가 뭘 배웠는지까지 다 리조트에 들어가요. 그래서 이게 SDAI 스타일메소드이고, 여기서 제가 아까 말씀드렸던, 취업을 잘하는 학생들의 학교 차이는 그래서 이 경험으로 내가 이 회사의 이 비정화와 어떻게 매치시킬 건지까지',\n", |
| 491 | + " ' 아, 성경을 잘해야 돼',\n", |
| 492 | + " ' 이 시원이랑 나랑 맞춰서 반드시 여기 가야 돼요 그럼 안돼 절박하면 안 돼 절박하면 티나고 절박한 사람은 사실 안 보고도',\n", |
504 | 493 | " ' you']"
|
505 | 494 | ]
|
506 | 495 | },
|
507 |
| - "execution_count": 65, |
| 496 | + "execution_count": 9, |
508 | 497 | "metadata": {},
|
509 | 498 | "output_type": "execute_result"
|
510 | 499 | }
|
|
0 commit comments