臨沂網(wǎng)站seo互聯(lián)網(wǎng)營(yíng)銷師考試題庫(kù)
全國(guó)大學(xué)生數(shù)學(xué)建模比賽中,深度學(xué)習(xí)可以成為解決復(fù)雜問題的有力手段。
一、深度學(xué)習(xí)的優(yōu)勢(shì)在比賽中的體現(xiàn)
- 強(qiáng)大的模式識(shí)別能力:深度學(xué)習(xí)模型,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),在處理圖像、文本、時(shí)間序列等數(shù)據(jù)方面表現(xiàn)出卓越的性能。在數(shù)學(xué)建模比賽中,可能會(huì)遇到需要對(duì)圖像進(jìn)行分類、對(duì)文本進(jìn)行情感分析或?qū)r(shí)間序列數(shù)據(jù)進(jìn)行預(yù)測(cè)等問題,深度學(xué)習(xí)可以有效地提取數(shù)據(jù)中的特征,提高模型的準(zhǔn)確性。
- 自動(dòng)特征提取:與傳統(tǒng)的機(jī)器學(xué)習(xí)方法相比,深度學(xué)習(xí)模型能夠自動(dòng)從原始數(shù)據(jù)中學(xué)習(xí)特征,無需人工設(shè)計(jì)特征。這在處理大規(guī)模、高維度數(shù)據(jù)時(shí)尤為重要,可以節(jié)省大量的時(shí)間和精力。
- 良好的泛化能力:經(jīng)過充分訓(xùn)練的深度學(xué)習(xí)模型通常具有較好的泛化能力,能夠在新的數(shù)據(jù)上表現(xiàn)出良好的性能。這對(duì)于數(shù)學(xué)建模比賽中未知的測(cè)試數(shù)據(jù)非常關(guān)鍵,能夠提高模型的可靠性和實(shí)用性。
二、在比賽中應(yīng)用深度學(xué)習(xí)的步驟
-
問題理解與數(shù)據(jù)收集:
- 首先,深入理解比賽問題的背景和要求,確定需要解決的具體問題。
- 然后,收集與問題相關(guān)的各種數(shù)據(jù),包括訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)。數(shù)據(jù)的質(zhì)量和數(shù)量對(duì)深度學(xué)習(xí)模型的性能至關(guān)重要。
-
數(shù)據(jù)預(yù)處理:
- 對(duì)收集到的數(shù)據(jù)進(jìn)行預(yù)處理,包括數(shù)據(jù)清洗、歸一化、標(biāo)準(zhǔn)化等操作。對(duì)于圖像數(shù)據(jù),可能還需要進(jìn)行裁剪、縮放、旋轉(zhuǎn)等增強(qiáng)操作,以增加數(shù)據(jù)的多樣性。
- 將數(shù)據(jù)劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,用于模型的訓(xùn)練、調(diào)參和評(píng)估。
-
模型選擇與搭建:
- 根據(jù)問題的特點(diǎn)和數(shù)據(jù)的類型,選擇合適的深度學(xué)習(xí)模型。例如,對(duì)于圖像分類問題,可以選擇 CNN;對(duì)于文本處理問題,可以選擇 RNN 或 Transformer 架構(gòu)。
- 使用深度學(xué)習(xí)框架,如 TensorFlow、PyTorch 等,搭建所選的模型??梢詮默F(xiàn)有的開源模型開始,根據(jù)需要進(jìn)行修改和調(diào)整。
-
模型訓(xùn)練與調(diào)參:
- 使用訓(xùn)練集對(duì)模型進(jìn)行訓(xùn)練,調(diào)整模型的參數(shù),以最小化損失函數(shù)??梢圆捎秒S機(jī)梯度下降等優(yōu)化算法,設(shè)置適當(dāng)?shù)膶W(xué)習(xí)率、批次大小等參數(shù)。
- 在訓(xùn)練過程中,使用驗(yàn)證集對(duì)模型進(jìn)行評(píng)估,及時(shí)調(diào)整模型的結(jié)構(gòu)和參數(shù),防止過擬合??梢圆捎谜齽t化、Dropout 等技術(shù)來提高模型的泛化能力。
-
模型評(píng)估與改進(jìn):
- 使用測(cè)試集對(duì)訓(xùn)練好的模型進(jìn)行最終評(píng)估,計(jì)算模型的準(zhǔn)確率、召回率、F1 值等指標(biāo),評(píng)估模型的性能。
- 根據(jù)評(píng)估結(jié)果,分析模型存在的問題,如過擬合、欠擬合等,采取相應(yīng)的改進(jìn)措施,如增加數(shù)據(jù)量、調(diào)整模型結(jié)構(gòu)、改進(jìn)訓(xùn)練方法等。
三、注意事項(xiàng)與挑戰(zhàn)
- 計(jì)算資源需求:深度學(xué)習(xí)模型通常需要大量的計(jì)算資源,包括 GPU 等硬件設(shè)備。在比賽中,可能需要合理安排計(jì)算資源,提高計(jì)算效率。
- 數(shù)據(jù)量要求:深度學(xué)習(xí)模型需要大量的訓(xùn)練數(shù)據(jù)才能發(fā)揮出良好的性能。在數(shù)據(jù)量有限的情況下,可以考慮采用數(shù)據(jù)增強(qiáng)、遷移學(xué)習(xí)等技術(shù)來提高模型的性能。
- 模型解釋性:深度學(xué)習(xí)模型通常具有較高的復(fù)雜性,難以解釋其決策過程。在比賽中,可能需要對(duì)模型的結(jié)果進(jìn)行解釋和說明,以增強(qiáng)模型的可信度。
- 時(shí)間限制:數(shù)學(xué)建模比賽通常有時(shí)間限制,需要在有限的時(shí)間內(nèi)完成模型的訓(xùn)練和評(píng)估。因此,需要合理安排時(shí)間,選擇合適的模型和算法,提高建模效率。
總之,在全國(guó)大學(xué)生數(shù)學(xué)建模比賽中,深度學(xué)習(xí)可以為解決復(fù)雜問題提供強(qiáng)大的工具。但在應(yīng)用深度學(xué)習(xí)時(shí),需要充分考慮問題的特點(diǎn)、數(shù)據(jù)的類型和計(jì)算資源等因素,選擇合適的模型和算法,并進(jìn)行充分的實(shí)驗(yàn)和調(diào)參,以提高模型的性能和可靠性。
例題案例:
1.?TensorFlow框架的基本使用(5-1)
- 獲取訓(xùn)練數(shù)據(jù)
構(gòu)建一個(gè)簡(jiǎn)單的線性模型:W,b為參數(shù),W=2,b=1,運(yùn)用tf.random.normal() 產(chǎn)生1000個(gè)隨機(jī)數(shù),產(chǎn)生x,y數(shù)據(jù)。
用matplotlib庫(kù),用藍(lán)色繪制訓(xùn)練數(shù)據(jù)。
- 定義模型
通過對(duì)樣本數(shù)據(jù)的離散圖可以判斷,呈線性規(guī)律變化,因此可以建立一個(gè)線性模型,即?,把該線性模型定義為一個(gè)簡(jiǎn)單的類,里面封裝了變量和計(jì)算,變量設(shè)置用tf.Variable()。
- 定義損失函數(shù)
損失函數(shù)是衡量給定輸入的模型輸出與期望輸出的匹配程度,采用均方誤差(L2范數(shù)損失函數(shù))。
- 模型訓(xùn)練
運(yùn)用數(shù)據(jù)和模型來訓(xùn)練得到模型的變量(W和b),觀察W和b的變化(使用matplotlib繪制W和b的變化情況曲線)。
import tensorflow as tf
import matplotlib.pyplot as plt# 步驟1:生成訓(xùn)練數(shù)據(jù)
num_samples = 1000
true_W = 2
true_b = 1
inputs = tf.random.normal(shape=(num_samples,))
noise = tf.random.normal(shape=(num_samples,))
outputs = inputs * true_W + true_b + noise# 繪制訓(xùn)練數(shù)據(jù)
plt.scatter(inputs, outputs, c='b', label='Training data')
plt.xlabel('Input')
plt.ylabel('Output')
plt.legend()
plt.show()# 步驟2:定義模型
class LinearModel(tf.Module):def __init__(self):self.W = tf.Variable(tf.random.normal(shape=(), stddev=0.1))self.b = tf.Variable(tf.random.normal(shape=(), stddev=0.1))def __call__(self, x):return self.W * x + self.b# 步驟3:定義損失函數(shù)
def loss(y_true, y_pred):return tf.reduce_mean(tf.square(y_true - y_pred))# 步驟4:模型訓(xùn)練
model = LinearModel()
learning_rate = 0.1
epochs = 50
history_W, history_b = [], []for epoch in range(epochs):with tf.GradientTape() as tape:current_loss = loss(outputs, model(inputs))dW, db = tape.gradient(current_loss, [model.W, model.b])model.W.assign_sub(learning_rate * dW)model.b.assign_sub(learning_rate * db)history_W.append(model.W.numpy())history_b.append(model.b.numpy())# 可視化W和b的變化
plt.plot(history_W, label='W')
plt.plot(history_b, label='b')
plt.xlabel('Epochs')
plt.ylabel('Values')
plt.legend()
plt.show()
?
?
2.?多層神經(jīng)網(wǎng)絡(luò)分類(5-2)
- 數(shù)據(jù)獲取與預(yù)處理
MNIST 數(shù)據(jù)集來自美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所, National Institute of Standards and Technology (NIST). 訓(xùn)練集 (training set) 由來自 250 個(gè)不同人手寫的數(shù)字構(gòu)成, 其中 50% 是高中學(xué)生, 50% 來自人口普查局 (the Census Bureau) 的工作人員. 測(cè)試集(test set) 也是同樣比例的手寫數(shù)字?jǐn)?shù)據(jù)。
每張圖像的大小都是28x28像素。MNIST數(shù)據(jù)集有60000張圖像用于訓(xùn)練和10000張圖像用于測(cè)試,其中每張圖像都被標(biāo)記了對(duì)應(yīng)的數(shù)字(0-9)。
- 加載數(shù)據(jù)集
- 查看數(shù)據(jù)集
- 歸一化處理
- 模型構(gòu)建
- 模型定義
- 編譯模型
- 輸出模型參數(shù)
- 模型訓(xùn)練
- 訓(xùn)練
- 獲取訓(xùn)練歷史數(shù)據(jù)中的各指標(biāo)值
- 繪制指標(biāo)在訓(xùn)練過程中的變化圖
- 模型評(píng)估
使用測(cè)試集對(duì)模型進(jìn)行評(píng)估
代碼:
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
# 加載MNIST數(shù)據(jù)集
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
# 輸出第一張圖片和對(duì)應(yīng)的標(biāo)簽
# 查看訓(xùn)練集中的一張圖像和對(duì)應(yīng)的標(biāo)簽
plt.imshow(x_train[0], cmap='gray')
plt.title(f"Label: {x_train[0]}")
plt.axis('off')
plt.show()
# 查看測(cè)試集中的一張圖像和對(duì)應(yīng)的標(biāo)簽
plt.imshow(x_test[0], cmap='gray')
plt.title(f"Label: {x_test[0]}")
plt.axis('off')
plt.show()
# 對(duì)輸入數(shù)據(jù)進(jìn)行歸一化處理
x_train = x_train / 255.0
x_test = x_test / 255.0
# 定義顯示圖片的函數(shù)
def plot_images(images):plt.imshow(images, cmap='binary')plt.show()
# 構(gòu)建神經(jīng)網(wǎng)絡(luò)模型
model = tf.keras.models.Sequential([tf.keras.layers.Flatten(input_shape=(28,28)), # 將輸入展平為一維數(shù)組tf.keras.layers.Dense(256, activation='relu'), # 全連接層,使用ReLU激活函數(shù)tf.keras.layers.Dropout(0.2), # Dropout層,可以防止過擬合tf.keras.layers.Dense(128, activation='relu'), # 全連接層,使用ReLU激活函數(shù)tf.keras.layers.Dense(64, activation='relu'),tf.keras.layers.Dense(10, activation='softmax') # 輸出層,使用softmax激活函數(shù)輸出分類概率
])
# 編譯模型
model.compile(optimizer='adam',loss='sparse_categorical_crossentropy', # 使用交叉熵?fù)p失函數(shù)metrics=['sparse_categorical_accuracy'])# 輸出模型結(jié)構(gòu)
model.summary()
# 訓(xùn)練模型
history = model.fit(x_train, y_train, epochs=50, validation_split=0.2, verbose=1)
train_loss = history.history['loss']
val_loss = history.history['val_loss']
train_accuracy = history.history['sparse_categorical_accuracy']
val_accuracy = history.history['val_sparse_categorical_accuracy']
# 生成圖形
plt.figure(figsize=(12, 4))
# Loss 圖
plt.subplot(1, 2, 1)
plt.plot(train_loss, label='Training Loss')
plt.plot(val_loss, label='Validation Loss')
plt.title('Training and Validation Loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()
# Accuracy 圖
plt.subplot(1, 2, 2)
plt.plot(train_accuracy, label='Training Accuracy')
plt.plot(val_accuracy, label='Validation Accuracy')
plt.title('Training and Validation Accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.legend()
plt.show()test_loss, test_accuracy = model.evaluate(x_test, y_test)
print(f"Test Loss: {test_loss}")
print(f"Test Accuracy: {test_accuracy}")
?
?
3.?多層神經(jīng)網(wǎng)絡(luò)回歸(5-3)
- 數(shù)據(jù)獲取與預(yù)處理
Auto MPG 數(shù)據(jù)集,它記錄了各種汽車效能指標(biāo)MPG(Mile Per Gallon)與氣缸數(shù)、重量、馬力等因素的真實(shí)數(shù)據(jù)。除了產(chǎn)地的數(shù)字字段表示類別外,其他字段都是數(shù)值類型。對(duì)于產(chǎn)地地段,1 表示美國(guó),2 表示歐洲,3 表示日本。
- 加載數(shù)據(jù)集
column_names = ['MPG','Cylinders','Displacement','Horsepower','Weight',
????????????????'Acceleration', 'Model Year', 'Origin'] ??????#選定需要的數(shù)據(jù)特征
raw_dataset = pd.read_csv('./data/auto-mpg.data', names=column_names,
??????????????????????na_values = "?", comment='\t',
??????????????????????sep=" ", skipinitialspace=True) ???#讀取剛下載的數(shù)據(jù)
- 數(shù)據(jù)清洗
統(tǒng)計(jì)數(shù)據(jù)集中各列中空值的個(gè)數(shù),并刪除包含空值的行。
- 將Origin列轉(zhuǎn)換為one-hot(獨(dú)熱)編碼。
- 數(shù)據(jù)探索
- 使用describe方法查看數(shù)據(jù)的統(tǒng)計(jì)指標(biāo)
- 使用seaborn庫(kù)中pairplot方法繪制"MPG", "Cylinders", "Displacement", "Weight"四列的聯(lián)合分布圖
- 數(shù)據(jù)標(biāo)準(zhǔn)化
labels = dataset.pop('MPG') ?#從數(shù)據(jù)集中取出目標(biāo)值MPG
#數(shù)據(jù)標(biāo)準(zhǔn)化
from?sklearn.preprocessing import?StandardScaler
def?norm(x):
??return?(x - train_stats['mean']) / train_stats['std'] #標(biāo)準(zhǔn)化公式
scaler = StandardScaler()
normed_dataset = scaler.fit_transform(dataset)
- 劃分訓(xùn)練集與測(cè)試集
#拆分訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集,將數(shù)據(jù)集拆分為一個(gè)訓(xùn)練數(shù)據(jù)集和一個(gè)測(cè)試數(shù)據(jù)集。
X_train, X_test, Y_train, Y_test = train_test_split(normed_dataset,labels,test_size=0.2,random_state=0)
- 模型構(gòu)建
- 模型定義
model = tf.keras.Sequential([
????tf.keras.layers.Dense(64, activation='relu', input_shape=[X_train.shape[1]]),
????tf.keras.layers.Dense(64, activation='relu'),
????tf.keras.layers.Dense(1)
??])
- 編譯模型
loss='mse'??#損失用mse
optimizer='adam'
metrics=['mae', 'mse'])
- 輸出模型參數(shù)
print(model.summary())
- 模型訓(xùn)練
- 訓(xùn)練
epochs=100,
validation_split = 0.2
verbose=1
- 獲取訓(xùn)練歷史數(shù)據(jù)中的各指標(biāo)值
mae = history.history['mae']
val_mae = history.history['val_mae']
mse = history.history['mse']
val_mse = history.history['val_mse']
- 繪制指標(biāo)在訓(xùn)練過程中的變化圖
plt.figure(1)
plt.plot(mae, label='Training MAE')
plt.plot(val_mae, label='Validation MAE')
plt.title('Training and Validation MAE')
plt.legend()
?
plt.figure(2)
plt.plot(mse, label='Training MSE')
plt.plot(val_mse, label='Validation MSE')
plt.title('Training and Validation MSE')
plt.legend()
plt.show()
- 模型評(píng)估
使用測(cè)試集對(duì)模型進(jìn)行評(píng)估
# 測(cè)試模型
model.evaluate(X_test, Y_test, verbose=1)
代碼:
# -*- coding: utf-8 -*-
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import tensorflow as tf
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
# 加載數(shù)據(jù)集
column_names = ['MPG','Cylinders','Displacement','Horsepower','Weight','Acceleration', 'Model Year', 'Origin']
raw_dataset = pd.read_csv('auto-mpg.data', names=column_names,na_values = "?", comment='\t',sep=" ", skipinitialspace=True)
print(raw_dataset)
# 數(shù)據(jù)清洗
dataset = raw_dataset.dropna()
# 將Origin列轉(zhuǎn)換為one-hot編碼
dataset['Origin'] = dataset['Origin'].map({1: 'USA', 2: 'Europe', 3: 'Japan'})
dataset = pd.get_dummies(dataset, columns=['Origin'], prefix='', prefix_sep='')
# 數(shù)據(jù)探索
print(dataset.describe())
sns.pairplot(dataset[['MPG', 'Cylinders', 'Displacement', 'Weight']], diag_kind='kde')
# 數(shù)據(jù)標(biāo)準(zhǔn)化
labels = dataset.pop('MPG')
train_stats = dataset.describe().transpose()
def norm(x):return (x - train_stats['mean']) / train_stats['std']
normed_dataset = norm(dataset)
# 劃分訓(xùn)練集與測(cè)試集
X_train, X_test, Y_train, Y_test = train_test_split(normed_dataset, labels, test_size=0.2, random_state=0)
# 模型構(gòu)建
model = tf.keras.Sequential([tf.keras.layers.Dense(64, activation='relu', input_shape=[X_train.shape[1]]),tf.keras.layers.Dropout(0.3),tf.keras.layers.Dense(64, activation='relu'),tf.keras.layers.Dropout(0.2),tf.keras.layers.Dense(64, activation='relu'),tf.keras.layers.Dense(1)
])
# 編譯模型
model.compile(loss='mse', optimizer='adam', metrics=['mae', 'mse'])# 輸出模型參數(shù)
print(model.summary())
# 模型訓(xùn)練
history = model.fit(X_train, Y_train, epochs=1000, validation_split=0.3, verbose=1)
# 獲取訓(xùn)練歷史數(shù)據(jù)中的各指標(biāo)值
mae = history.history['mae']
val_mae = history.history['val_mae']
mse = history.history['mse']
val_mse = history.history['val_mse']
plt.figure()
plt.plot(mae, label='Training MAE')
plt.plot(val_mae, label='Validation MAE')
plt.title('Training and Validation MAE')
plt.legend()
plt.show()
plt.figure()
plt.plot(mse, label='Training MSE')
plt.plot(val_mse, label='Validation MSE')
plt.title('Training and Validation MSE')
plt.legend()
plt.show()
# 模型評(píng)估
h1=model.evaluate(X_test, Y_test, verbose=1)
print(h1)
?
?
?
數(shù)據(jù)集例樣:
18.0 ? 8 ? 307.0 ? ? ?130.0 ? ? ?3504. ? ? ?12.0 ? 70 ?1?? ?"chevrolet chevelle malibu"
15.0 ? 8 ? 350.0 ? ? ?165.0 ? ? ?3693. ? ? ?11.5 ? 70 ?1?? ?"buick skylark 320"
18.0 ? 8 ? 318.0 ? ? ?150.0 ? ? ?3436. ? ? ?11.0 ? 70 ?1?? ?"plymouth satellite"
16.0 ? 8 ? 304.0 ? ? ?150.0 ? ? ?3433. ? ? ?12.0 ? 70 ?1?? ?"amc rebel sst"
17.0 ? 8 ? 302.0 ? ? ?140.0 ? ? ?3449. ? ? ?10.5 ? 70 ?1?? ?"ford torino"
15.0 ? 8 ? 429.0 ? ? ?198.0 ? ? ?4341. ? ? ?10.0 ? 70 ?1?? ?"ford galaxie 500"
14.0 ? 8 ? 454.0 ? ? ?220.0 ? ? ?4354. ? ? ? 9.0 ? 70 ?1?? ?"chevrolet impala"
14.0 ? 8 ? 440.0 ? ? ?215.0 ? ? ?4312. ? ? ? 8.5 ? 70 ?1?? ?"plymouth fury iii"
14.0 ? 8 ? 455.0 ? ? ?225.0 ? ? ?4425. ? ? ?10.0 ? 70 ?1?? ?"pontiac catalina"
15.0 ? 8 ? 390.0 ? ? ?190.0 ? ? ?3850. ? ? ? 8.5 ? 70 ?1?? ?"amc ambassador dpl"
15.0 ? 8 ? 383.0 ? ? ?170.0 ? ? ?3563. ? ? ?10.0 ? 70 ?1?? ?"dodge challenger se"
14.0 ? 8 ? 340.0 ? ? ?160.0 ? ? ?3609. ? ? ? 8.0 ? 70 ?1?? ?"plymouth 'cuda 340"
15.0 ? 8 ? 400.0 ? ? ?150.0 ? ? ?3761. ? ? ? 9.5 ? 70 ?1?? ?"chevrolet monte carlo"
14.0 ? 8 ? 455.0 ? ? ?225.0 ? ? ?3086. ? ? ?10.0 ? 70 ?1?? ?"buick estate wagon (sw)"
24.0 ? 4 ? 113.0 ? ? ?95.00 ? ? ?2372. ? ? ?15.0 ? 70 ?3?? ?"toyota corona mark ii"
22.0 ? 6 ? 198.0 ? ? ?95.00 ? ? ?2833. ? ? ?15.5 ? 70 ?1?? ?"plymouth duster"
18.0 ? 6 ? 199.0 ? ? ?97.00 ? ? ?2774. ? ? ?15.5 ? 70 ?1?? ?"amc hornet"
21.0 ? 6 ? 200.0 ? ? ?85.00 ? ? ?2587. ? ? ?16.0 ? 70 ?1?? ?"ford maverick"
27.0 ? 4 ? 97.00 ? ? ?88.00 ? ? ?2130. ? ? ?14.5 ? 70 ?3?? ?"datsun pl510"
26.0 ? 4 ? 97.00 ? ? ?46.00 ? ? ?1835. ? ? ?20.5 ? 70 ?2?? ?"volkswagen 1131 deluxe sedan"
25.0 ? 4 ? 110.0 ? ? ?87.00 ? ? ?2672. ? ? ?17.5 ? 70 ?2?? ?"peugeot 504"
24.0 ? 4 ? 107.0 ? ? ?90.00 ? ? ?2430. ? ? ?14.5 ? 70 ?2?? ?"audi 100 ls"
25.0 ? 4 ? 104.0 ? ? ?95.00 ? ? ?2375. ? ? ?17.5 ? 70 ?2?? ?"saab 99e"
26.0 ? 4 ? 121.0 ? ? ?113.0 ? ? ?2234. ? ? ?12.5 ? 70 ?2?? ?"bmw 2002"
21.0 ? 6 ? 199.0 ? ? ?90.00 ? ? ?2648. ? ? ?15.0 ? 70 ?1?? ?"amc gremlin"
10.0 ? 8 ? 360.0 ? ? ?215.0 ? ? ?4615. ? ? ?14.0 ? 70 ?1?? ?"ford f250"
10.0 ? 8 ? 307.0 ? ? ?200.0 ? ? ?4376. ? ? ?15.0 ? 70 ?1?? ?"chevy c20"
11.0 ? 8 ? 318.0 ? ? ?210.0 ? ? ?4382. ? ? ?13.5 ? 70 ?1?? ?"dodge d200"
9.0 ? ?8 ? 304.0 ? ? ?193.0 ? ? ?4732. ? ? ?18.5 ? 70 ?1?? ?"hi 1200d"
27.0 ? 4 ? 97.00 ? ? ?88.00 ? ? ?2130. ? ? ?14.5 ? 71 ?3?? ?"datsun pl510"
28.0 ? 4 ? 140.0 ? ? ?90.00 ? ? ?2264. ? ? ?15.5 ? 71 ?1?? ?"chevrolet vega 2300"
25.0 ? 4 ? 113.0 ? ? ?95.00 ? ? ?2228. ? ? ?14.0 ? 71 ?3?? ?"toyota corona"
25.0 ? 4 ? 98.00 ? ? ?? ? ? ? ? ?2046. ? ? ?19.0 ? 71 ?1?? ?"ford pinto"
19.0 ? 6 ? 232.0 ? ? ?100.0 ? ? ?2634. ? ? ?13.0 ? 71 ?1?? ?"amc gremlin"
16.0 ? 6 ? 225.0 ? ? ?105.0 ? ? ?3439. ? ? ?15.5 ? 71 ?1?? ?"plymouth satellite custom"
17.0 ? 6 ? 250.0 ? ? ?100.0 ? ? ?3329. ? ? ?15.5 ? 71 ?1?? ?"chevrolet chevelle malibu"
19.0 ? 6 ? 250.0 ? ? ?88.00 ? ? ?3302. ? ? ?15.5 ? 71 ?1?? ?"ford torino 500"
18.0 ? 6 ? 232.0 ? ? ?100.0 ? ? ?3288. ? ? ?15.5 ? 71 ?1?? ?"amc matador"
14.0 ? 8 ? 350.0 ? ? ?165.0 ? ? ?4209. ? ? ?12.0 ? 71 ?1?? ?"chevrolet impala"
14.0 ? 8 ? 400.0 ? ? ?175.0 ? ? ?4464. ? ? ?11.5 ? 71 ?1?? ?"pontiac catalina brougham"
14.0 ? 8 ? 351.0 ? ? ?153.0 ? ? ?4154. ? ? ?13.5 ? 71 ?1?? ?"ford galaxie 500"
14.0 ? 8 ? 318.0 ? ? ?150.0 ? ? ?4096. ? ? ?13.0 ? 71 ?1?? ?"plymouth fury iii"
12.0 ? 8 ? 383.0 ? ? ?180.0 ? ? ?4955. ? ? ?11.5 ? 71 ?1?? ?"dodge monaco (sw)"
13.0 ? 8 ? 400.0 ? ? ?170.0 ? ? ?4746. ? ? ?12.0 ? 71 ?1?? ?"ford country squire (sw)"
13.0 ? 8 ? 400.0 ? ? ?175.0 ? ? ?5140. ? ? ?12.0 ? 71 ?1?? ?"pontiac safari (sw)"
18.0 ? 6 ? 258.0 ? ? ?110.0 ? ? ?2962. ? ? ?13.5 ? 71 ?1?? ?"amc hornet sportabout (sw)"
22.0 ? 4 ? 140.0 ? ? ?72.00 ? ? ?2408. ? ? ?19.0 ? 71 ?1?? ?"chevrolet vega (sw)"
19.0 ? 6 ? 250.0 ? ? ?100.0 ? ? ?3282. ? ? ?15.0 ? 71 ?1?? ?"pontiac firebird"
18.0 ? 6 ? 250.0 ? ? ?88.00 ? ? ?3139. ? ? ?14.5 ? 71 ?1?? ?"ford mustang"
23.0 ? 4 ? 122.0 ? ? ?86.00 ? ? ?2220. ? ? ?14.0 ? 71 ?1?? ?"mercury capri 2000"
28.0 ? 4 ? 116.0 ? ? ?90.00 ? ? ?2123. ? ? ?14.0 ? 71 ?2?? ?"opel 1900"
30.0 ? 4 ? 79.00 ? ? ?70.00 ? ? ?2074. ? ? ?19.5 ? 71 ?2?? ?"peugeot 304"
30.0 ? 4 ? 88.00 ? ? ?76.00 ? ? ?2065. ? ? ?14.5 ? 71 ?2?? ?"fiat 124b"
31.0 ? 4 ? 71.00 ? ? ?65.00 ? ? ?1773. ? ? ?19.0 ? 71 ?3?? ?"toyota corolla 1200"
35.0 ? 4 ? 72.00 ? ? ?69.00 ? ? ?1613. ? ? ?18.0 ? 71 ?3?? ?"datsun 1200"
27.0 ? 4 ? 97.00 ? ? ?60.00 ? ? ?1834. ? ? ?19.0 ? 71 ?2?? ?"volkswagen model 111"
26.0 ? 4 ? 91.00 ? ? ?70.00 ? ? ?1955. ? ? ?20.5 ? 71 ?1?? ?"plymouth cricket"
24.0 ? 4 ? 113.0 ? ? ?95.00 ? ? ?2278. ? ? ?15.5 ? 72 ?3?? ?"toyota corona hardtop"
25.0 ? 4 ? 97.50 ? ? ?80.00 ? ? ?2126. ? ? ?17.0 ? 72 ?1?? ?"dodge colt hardtop"
23.0 ? 4 ? 97.00 ? ? ?54.00 ? ? ?2254. ? ? ?23.5 ? 72 ?2?? ?"volkswagen type 3"
20.0 ? 4 ? 140.0 ? ? ?90.00 ? ? ?2408. ? ? ?19.5 ? 72 ?1?? ?"chevrolet vega"
21.0 ? 4 ? 122.0 ? ? ?86.00 ? ? ?2226. ? ? ?16.5 ? 72 ?1?? ?"ford pinto runabout"
13.0 ? 8 ? 350.0 ? ? ?165.0 ? ? ?4274. ? ? ?12.0 ? 72 ?1?? ?"chevrolet impala"
14.0 ? 8 ? 400.0 ? ? ?175.0 ? ? ?4385. ? ? ?12.0 ? 72 ?1?? ?"pontiac catalina"
15.0 ? 8 ? 318.0 ? ? ?150.0 ? ? ?4135. ? ? ?13.5 ? 72 ?1?? ?"plymouth fury iii"
14.0 ? 8 ? 351.0 ? ? ?153.0 ? ? ?4129. ? ? ?13.0 ? 72 ?1?? ?"ford galaxie 500"
17.0 ? 8 ? 304.0 ? ? ?150.0 ? ? ?3672. ? ? ?11.5 ? 72 ?1?? ?"amc ambassador sst"
11.0 ? 8 ? 429.0 ? ? ?208.0 ? ? ?4633. ? ? ?11.0 ? 72 ?1?? ?"mercury marquis"
13.0 ? 8 ? 350.0 ? ? ?155.0 ? ? ?4502. ? ? ?13.5 ? 72 ?1?? ?"buick lesabre custom"
12.0 ? 8 ? 350.0 ? ? ?160.0 ? ? ?4456. ? ? ?13.5 ? 72 ?1?? ?"oldsmobile delta 88 royale"
13.0 ? 8 ? 400.0 ? ? ?190.0 ? ? ?4422. ? ? ?12.5 ? 72 ?1?? ?"chrysler newport royal"
19.0 ? 3 ? 70.00 ? ? ?97.00 ? ? ?2330. ? ? ?13.5 ? 72 ?3?? ?"mazda rx2 coupe"